Impactos da inteligência artificial na responsabilidade legal são analisados na EPM
Peter Messite foi o palestrante.
No último dia 7, foi realizada na EPM a palestra Impactos da inteligência artificial na responsabilidade legal, com exposição do juiz distrital sênior para o Distrito de Maryland (EUA), Peter Messite.
O evento teve a participação do diretor da EPM, desembargador Francisco Eduardo Loureiro, e dos coordenadores do evento, desembargadora Christine Santini e juiz Marcus Vinicius Kiyoshi Onodera, entre outros magistrados, promotores de Justiça, servidores e outros profissionais.
Na abertura dos trabalhos, Francisco Loureiro agradeceu a participação do palestrante e a iniciativa dos coordenadores e enfatizou a importância do evento: “trata-se de um tema central e absolutamente atual para todos os tribunais do mundo, em especial os tribunais brasileiros, que se veem com milhões de processos, muitas vezes repetitivos”.
Peter Messite elucidou que atualmente para cumprir de forma correta o dever de informar, os advogados devem ter um entendimento básico das atividades de inteligência artificial, para entender os possíveis litígios aos quais os clientes podem estar expostos, caso lidem com tais atividades.
Ele acrescentou que os advogados também devem estar conscientes da necessidade de proteção à privacidade de indivíduos ou entidades que possam estar envolvidos com um aplicativo de inteligência artificial, devendo entender e utilizar medidas de segurança adequadas para determinar como as comunicações eletrônicas dos clientes devem ser protegidas.
O palestrante observou que escritórios de advocacia geralmente têm grande número de informações sensíveis sobre seus clientes em diversos tópicos, como dados financeiros, segredos comerciais, patentes e políticas de contratação e que por essa razão têm se tornado alvos cada vez mais alvejados por hackers.
Nesse sentido, ponderou que o Brasil, apesar de reconhecer responsabilidade civil por produtos defeituosos, incluindo ações por negligência ou negligência profissional, violação de termo de garantia no Direito Contratual e responsabilidade objetiva, também deverá encontrar meios de enfrentar as causas relacionadas à inteligência artificial, assim como a União Europeia.
Ele salientou que uma categoria relevante de responsabilidade civil emergente envolvendo empresas e inteligência artificial é relativa à violação de dados e direitos de privacidade. Recordou o caso abrangendo a rede social Facebook e a empresa britânica Cambridge Analytica, nas últimas eleições presidenciais norte-americanas. Explicou que a rede reúne e armazena uma quantidade considerável de dados pessoais dos seus usuários e dá acesso a esses dados para outras companhias, que podem incluir segredos comerciais ou até propriedades intelectuais, o que então permite que estes possam atingir os usuários com propaganda.
Ele lembrou que a Cambridge Analytica realizava consultoria política por meio da mineração de dados para permitir comunicação estratégica de candidatos com potenciais eleitores. Recordou que a empresa começou a coletar dados dos usuários no Facebook em 2014, posteriormente utilizados por Donald Trump em 2016. E informou que estima-se que 87 milhões de usuários tiveram seus dados ilegalmente colhidos.
Peter Messite salientou que a Federal Trade Comission (FTC), agência independente do governo norte-americano que tem como missão principal a proteção dos consumidores, tem sido efetiva no tocante à proteção de dados pessoais. Observou que em 2011 a FTC chegou a um acordo com o Facebook para melhorar suas práticas de privacidade, o que resultou em um decreto judicial. Porém, em 2017 a FTC investigou o envolvimento da rede social com a Cambridge Analytica, concluindo que o acordo fora violado. A FTC determinou multa de cinco bilhões de dólares para a empresa, por manipular mal as informações pessoais dos usuários, maior multa imposta pelo governo federal a uma empresa de tecnologia. No entanto, frisou que em 2018 o Facebook teve mais de 55 bilhões de lucro.
O palestrante mencionou ainda litígio multi distrital (semelhante a ação coletiva no Brasil), reconhecendo a violação de dados contra Yahoo e envolvendo cerca de três bilhões de usuários, no qual uma juíza distrital da California rejeitou uma proposta de acordo da empresa, que teria pago 50 milhões de dólares e fornecido dois anos de monitoramento de crédito gratuito para cerca de 200 milhões de pessoas. E citou trecho da decisão: “a história do Yahoo de não divulgação e falta de transparência relacionada às suas violações de dados é notória. Infelizmente este acordo, a proposta de notificação, a moção para aprovação preliminar e os registros suplementares públicos perpetuam esse padrão de falta de transparência. O anúncio proposto não divulga os custos do serviço de monitoramento de crédito ou os custos de notificação de classe no acordo, nem o tamanho total do fundo do acordo, o que impossibilita aos membros da classe avaliarem sua razoabilidade”.
Peter Messite chamou a atenção para o fato de que tais litígios apresentam teorias convencionais de negligência, invasão de privacidade e, algumas vezes, alegações de fraude para estabelecerem reinvindicações de responsabilidade por violação de dados, mesmo aqueles que possuem um escopo amplo. E concluiu enfatizando que os juízes dos Estados Unidos estão reconhecendo a validade dessas teorias.
LS (texto) / MA (fotos)