A OpenAI vai criar um comité de supervisão para averiguar a segurança dos modelos de inteligência artificial (IA) que desenvolve. O anúncio surge semanas depois da dona do ChatGPT ter dissolvido a equipa de segurança de IA.
O comité será responsável por fazer recomendações à administração sobre a segurança crítica e decisões de segurança para os projetos e decisões da OpenAI. Este órgão terá 90 dias para avaliar os limites de segurança dos modelos da empresa e criar um relatório. A OpenAI esclarece ainda que depois de uma análise pela administração, se compromete a "partilhar publicamente as recomendações adotadas de uma forma que é consistente com a segurança".
Está já a treinar o seu próximo modelo de IA topo de gama, antecipando que essa investigação deixe a empresa "no nível seguinte de competências no caminho para a AGI", a inteligência artificial geral, em que os sistemas de IA vão conseguir superar os humanos em várias tarefas.
Além do CEO Sam Altman, o comité contará com mais executivos do conselho de administração da OpenAI: Bret Taylor, presidente, Adam D'Angelo, CEO da Quora, e Nicole Seligman, advogada e ex-presidente da Sony Entertainment, que faz parte do board desde março.
Os restantes membros do comité têm um perfil mais técnico e são todos funcionários: Aleksander Madry (diretor de preparação para inteligência artificial), Lilian Weng (líder de sistemas de segurança), John Schulman (líder de alinhamento científico), Matt Knight (líder de segurança) e Jakub Pachocki (cientista-chefe). Haverá ainda consultores ligados à área da cibersegurança, como Rob Joyce, conselheiro de Segurança Interna de Trump, e John Carlin, que integrou o Departamento de Justiça durante a atual administração Biden.
Ajudando as organizações a navegar na complexidade do mundo e do digital