A OpenAI admite que os seus próximos modelos de inteligência artificial podem representar um risco ‘elevado' para a segurança cibernética, uma vez que as suas capacidades avançam rapidamente. A notícia é da Reuters, referindo uma publicação no blog da dona do ChatGPT.
"Os modelos de IA podem desenvolver exploits remotos zero-day contra sistemas bem defendidos ou auxiliar em operações complexas de intrusão empresarial ou industrial com o objetivo de causar efeitos no mundo real", refere-se.
Mas, à medida que as capacidades avançam, a OpenAI diz que está "a investir no reforço de modelos para tarefas defensivas de cibersegurança e na criação de ferramentas que permitam aos defensores realizar mais facilmente fluxos de trabalho, tais como auditar código e corrigir vulnerabilidades".
Para combater os riscos de cibersegurança, conta com uma combinação de controlos de acesso, reforço da infraestrutura, controlos de saída e monitorização. E vai em breve introduzir um programa para explorar a possibilidade de fornecer aos utilizadores e clientes qualificados que trabalham na ciberdefesa o acesso a níveis a capacidades melhoradas.
A OpenAI vai ainda criar um grupo consultivo, denominado Frontier Risk Council, que irá reunir ciberdefensores experientes e profissionais de segurança em estreita colaboração com as suas equipas. O grupo vai começar por se concentrar na cibersegurança e, no futuro, expandir-se para outros domínios de capacidades de fronteira.
Reforçando a sua posição como grande líder mundial nos chips de IA