Evento APDC

19.11
Outras iniciativas



Decorre a 19 novembro, envolvendo várias entidades, incluindo a APDC

Iniciativa Portuguesa do Fórum da Governação da Internet 2024

"IA para o bem comum: transparência, sustentabilidade e confiança" foi o tema de um dos debates realizado no âmbito da 11ª edição da Iniciativa Portuguesa do Fórum da Governação da Internet. A APDC organizou esta sessão, moderada pela sua Diretora Executiva, Sandra Fazenda Almeida, num encontro onde se debateu a importância de garantir que os algoritmos sejam explicáveis, a proteção da privacidade e dos dados dos utilizadores e os desafios e as oportunidades que a IA representa no futuro.

Sendo uma das big tech centradas na inteligência artificial, a Google está nesta área há mais de 20 anos e sempre tem desenvolvido aplicações e ferramentas baseadas na responsabilidade. Como refere Helena Martins, responsável da tecnológica, o princípio é que a IA seja benéfica e contribua para o desenvolvimento da sociedade, sempre com princípios éticos.

"O que temos experienciado é que todos os impactos que vimos da IA são impressionantes e permitem o desenvolvimento de novos modelos transformadores e impactantes", diz, adiantando que com a IA generativa os impactos são ainda maiores, alargando-se a todas as pessoas. Por isso, cada vez mais a Google está a apostar na literacia digital e nos esforços para contribuir para a capacitação de talentos. Esta "é uma preocupação na nossa abordagem responsável: ter pessoas capazes de usar a IA de forma consciente e produtiva".

E como é que uma empresa global como a Google equilibra a inovação com o cumprimento das novas exigências regulatórias da Europa, nomeadamente do IA Act? Helena Martins assegura que "a Google sempre foi a favor da regulação da IA", mas a regulação europeia, com as alterações feitas com o surgimento do ChatGPT, apresenta 
prós e contras. Trata-se de "uma legislação altamente complexa e com várias implicações. Estamos a partilhar a nossa visão de como isto nos afeta em termos de trazer inovação para a Europa, o que é cada vez mais complicado. Pelo menos ao ritmo que a lançamos no resto do mundo". Acresce que empresas como a Google têm hoje um "altíssimo escrutínio" e que têm vindo a aprender com os erros.

Também Joaquim Jorge, da UNESCO e Instituto Superior Técnico, e que está a desenvolver projetos na área da saúde que usam IA e realidade virtual, salienta a importância da literacia nesta tecnologia. É que "a IA a ser vendida hoje como o ketchup. É um conjunto diversificado de técnicas, com capacidades, limitações e implicações éticas distintas".

Trata-se de uma "tecnologia que em si não é maléfica, mas as suas aplicações podem ser. Por isso, é importante educar e promover a literacia em IA. Precisamos de capacitar os cidadãos e sobretudo os decisores políticos, com colaboração interdisciplinar. A IA é uma ferramenta poderosa e multifacetada, que pode transformar o mundo para melhor, desde que seja controlada por humanos".

E descarta o discurso apocalíptico sobre a IA, com as ameaças de que os humanos poderão ser dominados pelas máquinas. "Os sistemas não pensam nem compreendem o que fazem, usam sistemas estatísticos. O perigoso na utilização crescente destes sistemas é usar informações incorretas. Mas as pessoas não põem isso em questão. A nossa tendência para conferir competências anímicas a computadores pode minar o nosso discernimento crítico", alerta.

Deixando claro que tendo em atenção a diversidade de tecnologias e abordagens, a regulação não pode ser ‘one size fits all'. "No desafio entre inovação e regulação, que não sei se a CE está a resolver muito bem o tema. A regulação não é uma carapuça que se aplique em qualquer circunstância. Deveríamos ter uma abordagem flexível", adianta.

Já Joana Gonçalves de Sá, do Laboratory of Particle Physics, diz que concorda com a regulação. "Olhando para trás, fizemos muitos erros. E estamos a fazer muitos agora, porque temos tecnologias que ainda são muito básicas. Os atuais modelos de IA ainda têm muitas limitações, mas, apesar disso, estamos a implementá-las, sem qualquer controlo, e só percebemos os impactos à posteri".

Para esta responsável, "os algoritmos ainda cometem muitos erros e ainda estão a ser desenvolvidos. Quem os constrói muitas vezes não percebe o impacto do que estão a desenvolver". E o tema é que a "confiança conquista-se. Os modelos têm de provar que estão verdadeiros e neste momento a esmagadora maioria está errada", defende. Pelo que, na sua perspetiva, "temos de reconhecer que estamos no início, a aprender a fazer e não deveríamos estar a implementar como estamos já. Mas vamos chegar lá. Quem está a decidir não sabe do histórico nem tem informação".

E alerta também para outro problema: o que já existe em termos de IA e de desenvolvimento de aplicações vem de "meia dúzia de empresas dos EUA. A Academia está a correr atrás, seja na Europa seja no resto do mundo, e não tem capacidade de investimento para pensar o tema. Desapareceu praticamente em todos os governos a ideia de que na base disto está a ciência. Andamos atrás das empresas e a tentar regular o que está a ser feito, ao invés de investigarmos para o bem público".

Em debate neste encontro estiveram ainda outros temas relevantes no âmbito da Governação da Internet: Direitos Humanos no Digital, Cibersegurança e Confiança e Cooperação Digital.  As mensagens finais compiladas serão apresentadas no IGF global, que este ano irá decorrer entre os dias 15 e 19 de dezembro, na Arábia Saudita.

 

 

VEJA PROGRAMA 

 


Programa


Vai acontecer na APDC

2025-01-29

Realiza-se a 29 de janeiro, no Porto Business School

2025-01-30

Edital Best Thesis Award