Evento APDC

18.01
Outras iniciativas



APDC & VdA realizam Ciclo de Webinars sobre Digital

6ª Sessão | Digital Union: Inteligência Artificial

Ninguém tem dúvidas da aceleração das soluções de IA e do seu impacto em todas as áreas. Bruxelas está a tentar tomar a dianteira, criando um quadro regulatório comum a todo o espaço europeu, que garanta segurança, confiança e soluções centradas nas pessoas. O novo pacote ainda está em negociação, apesar de se preverem novidades ainda este ano. Os players da cadeia de valor aplaudem as intenções e objetivos. Mas, em termos legais, as novas regras e obrigações representam um grande desafio para todos os intervenientes. Para já, terão de preparar uma estratégia de IA que responda ao quadro legal atual e que seja "à prova de futuro". 

Discutir o que está a acontecer na UE de mais relevante em matéria de regulação e evolução tecnológica e debater os temas com as pessoas que estão a acompanhar essas matérias e que podem trazer o seu conhecimento e experiências é o objetivo da Digital Union, uma parceria entre a APDC e a VdA, como destacou Fernando Resina da Silva na abertura da 6ª sessão desta iniciativa.

Para o Sócio da Área Comunicações, Proteção de Dados & Tecnologia e Sócio Responsável da Área PI Transacional da VdA, a escolha do tema da inteligência artificial (IA) para este webinar foi decorreu do facto de ser "a tecnologia que, talvez neste momento está mais na berra, a sofrer maiores evoluções e a ser mais utilizada". Citando o caso recente da Microsoft, que se propõe investir 10 mil milhões de dólares na OpenAI, o projeto criado por Elon Musk e Sam Altman, que desenvolveu o ChatGPT, um chatbot de IA que responde a quase tudo o que é perguntado, este responsável destaca "a relevância e impacto da IA que vai ter a muito curto-prazo nas nossas vidas, individualmente consideradas".

Bruxelas está neste momento a fazer uma aproximação à IA, com uma proposta de regulamentação comum à União Europeia, com o objetivo de criar segurança e dinamizar a inovação nesta área, garantindo uma IA é human-centric e de confiança. Mas há ainda um longo caminho até lá chegar. A começar pela própria definição do conceito de IA, como começou por destacar Iakovina Kindylidi - International Adviser Comunicações, Proteção de Dados & Tecnologia da VdA, que fez uma apresentação sobre o futuro da regulação da IA na UE. 
 

PROBLEMAS, DESAFIOS E OPORTUNIDADES

"Em termos legais, a necessidade de uma definição de IA que toca o elemento humano é importante. Tem de ser genericamente aceite e é necessário criar clareza, evitar a fragmentação e ser à prova de futuro. Especialmente quando falamos de uma tecnologia que está constantemente a desenvolver-se e a acelerar", adianta, considerando que há que saber incluir as "diferentes formas de tecnologia e de como ela se desenvolve. Ao mesmo tempo, tentamos ser precisos e garantir a necessária certeza legal, que hoje falta".

Na proposta apresentada em 2021 pela Comissão Europeia do chamado IA Act, o Regulamento de IA, a definição é de um sistema de IA traduz-se num "software que é desenvolvido com recurso a uma ou mais técnicas e abordagens - machine learning, abordagens de lógica e conhecimento e de estatísticas - para um conjunto de objetivos definidos pelos seres humanos, criar resultados tais como conteúdo, previsões, recomendações ou decisões que influenciam o ambiente com o qual o sistema interage".

Uma definição que, segundo a oradora, não é fácil, especialmente quando se fala de uma tecnologia que se está a desenvolver com grande rapidez, sendo ainda demasiado técnica e, por isso, facilmente ultrapassada assim que forem introduzidas novas tecnologias para alcançar os mesmos objetivos e resultados. O que poderia ter sido feito, em alternativa, seria "uma definição assente nas propriedades e nos efeitos", ou seja, nos dados e na capacidade de, autonomamente, se alcançarem determinados resultados. Sempre numa lógica de "envolver intervenção humana".

Em concreto na IA, destaca os três grandes problemas inerentes: parcialidade e preconceitos em torno da tecnologia; complexidade de redes neurais profundas e as verdades baseadas em estatísticas; e dificuldade em identificar e corrigir erros. Estes "problemas difíceis" deram origem ao black box problema, que se traduz em 3 problemas legais, a transparência, a explicabilidade e a responsabilidade. Adicionalmente, cria outros desafios em matérias como os dados, propriedade intelectual, responsabilidade e compliance. 

Atualmente, ao nível europeu, considera que "não existe um gap regulatório na IA. Bem pelo contrário, há um quadro regulatório vasto, que pode não se referir explicitamente à IA, mas que a abrange também", até porque a "regulação na Europa é agnóstica em termos de tecnologias". Assim, há vários blocos de regulação, quer em termos de ética, quer de políticas e estratégias, iniciativas setoriais específicas e de proteção de dados. A tudo isto acrescerá a regulamentação futura, como o regulamento e-Privacy, a proposta de Regulamento da IA ou as propostas de Diretiva Responsabilidade da IA, Diretiva Responsabilidade dos Produtos, Regulamento dos Dados e Espaços de Dados. 

Relativamente à proposta de Regulamento da IA, apresentada em abril de 2021 pela CE, pretendeu-se definir um conjunto de regras únicas para regular a IA no espaço europeu. A proposta da Comissão Europeia foi desenhada para abranger todos os players da cadeia de valor da IA, incluindo utilizadores profissionais. Ao mesmo tempo, geograficamente, a seguiu-se a lógica do RGPD, aplicando-se as regras a empresas que não estão na UE, desde que os sistemas de IA estejam a ser utilizados no espaço europeu ou os seus outputs surgirem nesse espaço.
 

REGULAR COMO UM TODO

Iakovina Kindylidi adianta ainda que esta proposta, "apesar de prever muitas obrigações, não cobre todos os sistemas de IA, mas, especificamente os sistemas de alto risco e os sistemas de risco limitado, mas com proximidade e interação aos humanos, que terão de cumprir determinadas obrigações". Na sua perspetiva, "trata-se de uma lei horizontal e não para nenhum setor específico e o seu objetivo não é regular a IA como um todo".

Assim, nos termos da proposta de regulamento, há sistemas completamente proibidos porque os seus riscos são inaceitáveis, sistemas de risco elevado e que têm de cumprir as obrigações definidas, e sistemas de risco limitado, cuja proximidade aos humanos obriga ao comprimento de obrigações adicionais de transparência.  Já os sistemas de risco mínimo que não ficarão abrangidos pelo AI Act, mas terão de cumprir as regras do atual quadro legal e regulatório. 

Para a responsável da VdA, "há uma construção confusa do Regulamento de IA", a que acrescem coimas que podem ser muito altas, mais uma vez à semelhança da abordagem que foi feita por Bruxelas ao RGPD. 

"Em qualquer caso, a proposta ainda está a ser discutida e considerando o nível de criticismo, deverá demorar até se obter o documento final, embora se esperem desenvolvimentos em 2023. As empresas terão algum tempo para se adaptarem - 20 meses - a partir do momento da entrada em vigor", explica. 

Em complemento ao AI Act, a CE apresentou duas outras propostas de diretiva que o complementam: a PLDII e a Diretiva para Responsabilidade Civil em IA. São "importantes porque o AI Act não inclui as ações civis e vão complementar-se e criar um sistema de responsabilidade civil na UE que beneficiará a adoção de IA", diz a oradora. Assim, a primeira proposta estabelece a responsabilidade estrita do produtor por produtos defeituosos, levando à compensação por certos tipos de danos, principalmente sofridos por indivíduos. Já a segunda visa compensar qualquer tipo de dano e qualquer tipo de vítima, para criar confiança na IA e previsibilidade. Os dois diplomas deverão ser aprovados ao mesmo tempo que o AI Act. 

Mas, considerando que nenhum destes regulamentos entrou ainda em vigor, o que podem fazer as empresas ou os utilizadores fazer para assegurar que os seus sistemas estão compliance com as atuais regras e são à prova de futuro, estando preparadas para o novo quadro regulatório da IA? Para a oradora, "as empresas devem atuar proactivamente, preparando desde já uma estratégia de IA. Tal como se fez no RGPD, poderão beneficiar dos efeitos positivos em termos de reputação, mostrando que estão de acordo com as regras". 

Tendo em conta que ‘one size doesn't fit all' e que "não há balas de prata quando se trata de IA", Iakovina Kindylidi defende que "o contexto deve ser tido em conta. O que significa que as empresas precisam de introduzir uma estratégia clara para os dados e para os dados não pessoais. Assim, poderão ter uma melhor visão do negócio e do próprio algoritmo e da responsabilidade". Antecipar as medidas de compliance e mapear as demais obrigações a que poderão estar sujeitos é também fundamental. 
 

REGRAS COMUNS SÃO BEM-VINDAS

No período de debate que se seguiu, moderado por Sandra Fazenda Almeida, Diretora Executiva da APDC, e por Tiago Bessa, Sócio da Área de Comunicações, Proteção de Dados & Tecnologia, PI Transacional da VdA, ficou claro que tanto as empresas locais como globais estão atentas aos desenvolvimentos e aprovam a adoção de regras comuns a toda a UE. 

Rui Lopes, CEO da AgentifAI, uma startup bracarense focada em IA, entende que as propostas de Bruxelas têm a ver com "uma normal regulação que precisa de ser implantada, quando temos uma tecnologia tão poderosa, que pode impactar a vida das pessoas". Até em termos de inovação, o gestor não se mostra receoso. 

"Vejo algumas preocupações do que será o impacto nas empresas, particularmente as mais pequenas, para ter capacidade de competir e colocar no terreno os processos", diz, mas entende, fazendo ima analogia ao que aconteceu com o RGPD, que "o mercado se adapta muito bem. Hoje temos muito mais de confiança e as coisas estão a correr muito bem. Na IA vai ser o mesmo. O seu impacto nas nossas vidas vai ser profundo, especialmente em áreas como sistemas legais, saúde, banca ou finanças, entre outros".

Assim, considera "fundamental termos regulação, porque a tecnologia por si não é boa ou má, é o que as pessoas fazem dela. Precisamos de ter a certeza de que temos regulação para evitar que os atores maus abusem e impactem de forma negativa a sociedade. Numa forma positiva, penso que teremos um sistema mais confiável e é uma motivação para construir uma IA com um impacto mais positivo na sociedade".

No caso de uma multinacional como é a Nokia, as propostas de Bruxelas também são consideradas "um grande passo e uma grande proposta", como garante Daniele Quercia,  Department Head da Nokia Bell Labs e Cambridge & Professor of Urban Informatics at King's College London. "Do ponto de vista da Nokia, estamos a seguir os diferentes drafts do IA Act. É uma das razões de termos uma iniciativa de IA". Mais, o orador concorda "com a proatividade europeia, porque há espaço para uma vantagem competitiva face a outras regiões. É, definitivamente, uma grande oportunidade".

Questionado sobre se fará sentido para um players global como o grupo ter o AI Act global ou apenas ao nível europeu, o responsável da Nokia diz não ter dúvidas de que "uma empresa que é global e que dependa do mercado precisa de se adaptar a cada mercado local. Tão simples como isso". Mas, a "boa notícia é que se a UE está a ir mais longe, significa que podemos operar com as mesmas regras em todos os mercados europeus".  Explica ainda que a ONU já está a "pensar nestes temas, especialmente em ccomo os direitos humanos interagem com as tecnologias de IA, e está a trabalhar com todos os países do mundo para perceber".

A AgentifAI é um claro exemplo de que a inovação ‘made in Portugal' dá cartas também na IA. Inspirando-se num filme da Disney e na personagem Baymax, um robô assistente de saúde pessoal que se torna um super-herói, a startup desenvolveu a Alice, uma assistente digital de IA que interage com os consumidores, com diálogos inteligentes para a realização de tarefas. A solução já está implementada no setor bancário e acaba de ser lançada no setor da saúde, mais concretamente em todas as unidades do grupo Lusíadas. 

Rui Lopes destaca que a solução pode interagir em linguagem natural, em voz ou texto, sendo a primeira experiência com sucesso na área da saúde, que é uma indústria complexa, tal como a banca. "Foi o nosso grande desafio, porque estamos a fornecer não só conveniência, mas também inclusão e acessibilidade. O nosso objetivo é humanizar a experiência, na medida em que o desenvolvimento tecnológico o permita, para as pessoas terem uma boa experiência", acrescenta.

Foram necessários seis anos para alcançar os resultados pretendidos, de adequação aos utilizadores. "Uma das coisas que vemos no mercado é que, muitas vezes, o drive para este tipo de sistemas é a automação. No final, acaba-se como um sistema que é robótica, mas não é adequado aos utilizadores. Nestes tipos de sistemas de interfaces de conversação é muito diferente, porque as expectativas dos consumidores são diferentes. Se estes sistemas funcionam bem, parece magia. Mas se não funcionam, não há tolerância para falar com ‘dumb machines'", acrescenta o empreendedor. 

Outro exemplo de utilização da IA para humanizar o ambiente urbano é o projeto Happy Maps da Nokia. Daniele Quercia diz que o grupo demorou 4 anos a estudar e a quantificar elementos urbanos, que são o suporte da solução, para construir uma solução com mapas de uma cidade que fazem as pessoas felizes. Mais, defende que a IA poderá ter um papel essencial nas cidades sustentáveis e atrativas, se assumir o papel de mudar a ideia de eficiência e passar a definir coisas que fazem, de facto, as pessoas mais felizes. 

Apesar de nenhum destes oradores considerar o IA Act como uma ameaça, a responsável da VdA não tem dúvidas de que o novo pacote tem "o mesmo problema que surge com todas as novas regras que criam o quadro legal ara os serviços digitais e as tecnologias emergentes; excesso de obrigações". Acresce que falta ainda um guidance de como serão aplicadas as novas regras, o que "é um perigo, particularmente para as empresas mais pequenas". Terá de se "olhar para o todo, ver as diferentes peças do puzzle e tentar abranger todas. O que será um desafio".

 

PROGRAMA
 

09h30  Boas Vindas
  Fernando Resina da Silva - Sócio da Área Comunicações, Proteção de Dados & Tecnologia, Sócio Responsável da Área PI Transacional, VdA
Sandra Fazenda Almeida - Diretora Executiva, APDC
   
09h35 O futuro da Regulação de IA na União Europeia
  Iakovina Kindylidi - International Adviser Comunicações, Proteção de Dados & Tecnologia, VdA - Apresentação
   
09h50 Debate
  Daniele Quercia - Department Head at Nokia Bell Labs and Cambridge & Professor of Urban Informatics at King's College London
Rui Lopes - CEO, AgentifAI

Moderação:
· Sandra Fazenda Almeida - Diretora Executiva, APDC
· Tiago Bessa - Sócio da Área de Comunicações, Proteção de Dados & Tecnologia, PI Transacional, VdA
   
10h45 Encerramento


 

ORADORES