Uma análise comparativa entre ChatGPT e Bard mostrou algumas limitações de segurança na inteligência artificial (IA) generativa do Google. Os pesquisadores da Check Point Research (CPR) conduziram o estudo e viram o bot ajudar cibercriminosos sem qualquer resistência.
A CPR, divisão de Inteligência em Ameaças da Check Point Software, conseguiu gerar, com o Bard, e-mails de phishing, keylogger de malware e código básico de ransomware. Segundo os pesquisadores, hackers exploram a tecnologia para cometer crimes, algo que também já foi observado no ChatGPT.
- "Mas, parece que, no início, o Google Bard não aprendeu as lições do processamento inicial da plataforma de IA do ChatGPT, referente à implementação das melhores medidas antiabuso relacionadas ao abuso cibernético e de phishing da plataforma", disse o gerente de Inteligência de Ameaça da Check Point Research, Sergey Shykevich.
Ele acrescentou, ainda, que o robô da OpenAI recebeu melhorias nos últimos seis meses, dificultando o uso por cibercriminosos. O Google Bard, porém, "ainda está em um estágio muito imaturo dessa perspectiva". Há a expectativa de uma adoção de medidas e limites de segurança em um futuro próximo.
Shykevich listou as observações da equipe, comparando ao ChatGPT. Os restritores antiabuso do Bard são significativamente mais baixos e ele quase não impõe restrições à criação de e-mails de phishing. Com pouca manipulação, a IA desenvolve os keyloggers e também cria o ransomware básico.
- "As restrições existentes no Bard são relativamente básicas, à semelhança do que foi observado no ChatGPT durante a sua fase inicial de lançamento há vários meses, deixando-nos ainda a esperança de que estes sejam os trampolins para um longo caminho, e que a plataforma abrace as necessárias limitações e limites de segurança necessários", completou o gerente.
Tecmundo