Líder da Microsoft: IA deve permanecer sempre sobre o controlo humano

2023-05-26

As deep fakes são a maior preocupação na inteligência artificial (IA), pois têm uma aparência realista e um conteúdo falso. Por isso, há que tomar medidas para garantir que as pessoas saibam quando uma foto ou um vídeo são reais e quando são gerados por IA, potencialmente para fins nefastos. E os governos terão de criar medidas de segurança para a utilização da IA em infraestruturas críticas, para que os humanos controlem a tecnologia. Esta é a posição de Brad Smith, presidente da Microsoft.
O líder da gigante tecnológica, num discurso feito em Washington e numa publicação num blogue do grupo, a propósito do lançamento do estudo "Microsoft Governing AI: A Blueprint for the Future", que as pessoas precisam de ser responsabilizadas por quaisquer problemas causados pela IA. 
"Vamos ter de abordar as questões relacionadas com as deep fakes. Vamos ter de abordar, em particular, o que nos preocupa mais nas operações de influência cibernética estrangeira, os tipos de atividades que já estão a ser realizadas pelo governo russo, pelos chineses, pelos iranianos. Precisamos de tomar medidas para nos protegermos contra a alteração de conteúdos legítimos com a intenção de enganar ou defraudar as pessoas, através da utilização da IA", considerou.
Defende ainda a criação de um sistema, pelos criadores de ferramentas de IA poderosas, do tipo ‘conheça o seu cliente', para que possam controlar a forma como a sua tecnologia é utilizada e informem o público sobre os conteúdos que a IA está a criar, para a identificação de informação falsa.
No blogue da Microsoft, Brad Smith começa por citar uma afirmação que fez em 2019, num coescreveu sobre IA e ética:  "Não pergunte o que os computadores podem fazer, pergunte o que eles devem fazer". Quatro anos depois, este é o tema que está no centro do debate, quando ‘os avanços resultantes da nossa abordagem deram a capacidade de vez formas crescentes da IA melhorar a vida das pessoas. (...) De muitas maneiras, a IA oferece talvez ainda mais potencial para o bem da humanidade do que qualquer invenção que a precedeu". 
Mas não basta ver apenas as oportunidades. É preciso olhar para os riscos, até porque "numa sociedade democrática, um dos nossos princípios fundamentais é que nenhuma pessoa está acima da lei. Nenhum governo está acima da lei. Nenhuma empresa está acima da lei e nenhum produto ou tecnologia deve estar acima da lei. Isso leva a uma conclusão crítica: as pessoas que projetam e operam sistemas de IA não podem ser responsabilizadas, a menos que suas decisões e ações estejam sujeitas ao Estado de Direito", considera.
Este é o tema que está atualmente no centro da "política de IA e do debate regulatório. Como os governos garantem melhor que a IA esteja sujeita ao Estado de Direito? Em suma, que forma devem assumir novas leis, regulamentos e políticas?", questiona o líder da Microsoft.
Por isso, o estudo "Microsoft Governing AI: A Blueprint for the Future" detalha cinco formas para os governos definirem políticas, leis e regulamentos em torno da IA: implementar e desenvolver novas estruturas de segurança; criar mecanismos de segurança para controlo de infraestruturas críticas; desenvolver uma ampla estrutura legal e regulatória baseada na arquitetura da tecnologia para IA; promover a transparência e garantir o acesso académico e sem fins lucrativos à IA; e desenvolver novas parcerias público-privadas para usar a IA como uma ferramenta eficaz para enfrentar os inevitáveis desafios sociais que vêm com a nova tecnologia.
É que, como refere, "a IA é uma ferramenta extraordinária. Mas, como outras tecnologias, ela também pode se tornar numa arma poderosa e haverá pessoas que procurarão usá-la dessa forma".
O estudo detalha ainda o compromisso interno da Microsoft com a IA ética, mostrando como é que a gigante está a operacionalizar e a construir uma cultura de IA responsável. Já em 2018 a gigante adotou seis princípios éticos para IA, assentes num que foi considerado a base: a responsabilidade. 
Ou seja, como refere Brad Smith no blogue: "garantir que as máquinas permaneçam sujeitas a uma supervisão eficaz por parte das pessoas e as pessoas que projetam e operam máquinas permaneçam responsáveis perante todos os outros. Em suma, devemos sempre garantir que a IA permaneça sob controle humano. Essa deve ser uma prioridade de primeira ordem para empresas de tecnologia e governos".
O líder da gigante defende que "todas as organizações que criam ou usam sistemas avançados de IA têm de desenvolver e implementar seus próprios sistemas de governança. O que tem sido feito internamente, nos últimos seis anos, com o desenvolvimento de um novo sistema de governança, que envolve hoje quase 350 funcionários e que vai a crescer ainda mais, até porque se "aprende com a experiência". 
"Quando se trata de governança de IA, alguns das nossas aprendizagens mais importantes vieram do trabalho detalhado necessário de rever casos de uso de IA sensíveis específicos. Em 2019, fundámos um programa de revisão. Desde então, concluímos cerca de 600 revisões de casos de uso confidenciais. O ritmo dessa atividade acelerou, para acompanhar o ritmo dos avanços da IA, com quase 150 revisões desse tipo a ocorrerem nos últimos 11 meses", refere.
Deixando claro que "tudo se baseia no trabalho que fizemos e continuaremos a fazer para promover a IA responsável através da cultura da empresa. Isso significa contratar talentos novos e diversificados para expandir o nosso ecossistema de IA responsável e investir no talento que já temos na Microsoft para desenvolver capacidades a pensar no impacto potencial dos sistemas de IA nas pessoas e na sociedade. Isso também significa que muito mais do que no passado, a fronteira da tecnologia requer uma abordagem multidisciplinar, que combine grandes engenheiros com profissionais talentosos de todas as áreas".
"Estamos uma jornada coletiva para forjar um futuro responsável para a inteligência artificial. Todos podemos aprender uns com os outros. E não importa o quão bom possamos pensar que algo é hoje, todos precisaremos de continuar a melhorar. À medida que a mudança tecnológica se acelera, o trabalho para governar a IA de forma responsável deve acompanhar este ritmo", concluiu.
 


Ultrapassando valores da Microsoft e da Apple


Para reforçar serviços assistidos por IA


Citando várias tentativas com informações manipuladas


Deesencadeando uma nova onda de conhecimento aos negócios globais


Assinando pacto internacional no AI Safety Summit


De acordo com estudo da Salesforce