Parlamento Europeu aprova normas sobre Inteligência Artificial
15/02/2021
Relatórios que propõem a melhor forma de regular a Inteligência Artificial (IA)
O Parlamento Europeu adotou, em outubro de 2020, três relatórios que propõem a melhor forma de regular a Inteligência Artificial (IA) para impulsionar a inovação e a confiança na tecnologia. Os documentos foram resultado do trabalho de uma comissão especial sobre IA na era digital, criada para analisar o impacto da IA na economia da União Europeia. Os relatórios abordam, em síntese, aspectos associados a ética na IA, regimes de responsabilidade civil e direitos de propriedade intelectual (DPI).
O primeiro relatório¹ propõe um “regulamento relativo aos princípios éticos para o desenvolvimento, implantação e utilização da IA, da robótica e das tecnologias conexas”. Os princípios dizem respeito a conformidade com o direito vigente na União Europeia; pleno respeito pela dignidade, autonomia e segurança humanas, juntamente com outros direitos fundamentais; tratamento de dados pessoais seguindo as regras estipuladas na GDPR; e incentivo pela União Europeia e Estados-Membros de projetos destinados a fornecer soluções que promovam inclusão social, democracia, pluralismo, solidariedade, equidade, igualdade e cooperação.
Destacam-se, nesse sentido, os objetivos de reforçar a confiança pública; apoiar as empresas a tratarem com segurança os requisitos e os riscos regulamentares, atuais e futuros, durante o processo de inovação e na fase subsequente de utilização; organizar um quadro regulamentar que seja adequado e proporcional, incentive a segurança e a inovação, assegurando, ao mesmo tempo, direitos fundamentais e proteção dos consumidores; certificar a compatibilidade com princípios éticos durante o desenvolvimento, implantação e utilização dessas tecnologias; e exigir transparência.
O segundo relatório², com as recomendações concernentes ao regime de responsabilidade civil aplicável à IA, ressalta como premissa que “não deve existir regulamentação excessiva e deve-se evitar a burocracia”, de maneira que “as regras em matéria de responsabilidade civil relativa à IA devem procurar estabelecer o equilíbrio entre a proteção do público, por um lado, e os incentivos às empresas para investirem na inovação, em especial em sistemas de IA, por outro”, criando, dessa forma, “a maior segurança jurídica possível em toda a cadeia de responsabilidade, nomeadamente o produtor, o operador, a pessoa lesada e qualquer outro terceiro”.
Sugerem-se hipóteses de responsabilidade objetiva pelos sistemas de IA de alto risco e culposa relativamente aos outros sistemas de IA. Em ambos os casos, não configura excludente de responsabilidade a alegação de que os prejuízos ou danos foram causados por uma atividade, dispositivo ou processo autônomo baseado no sistema de IA, ao contrário dos motivos de força maior que afastam a responsabilidade dos operadores.
Considera-se alto risco, “um potencial importante de um sistema de IA que funcione de forma autônoma causar prejuízos ou danos a uma ou várias pessoas de forma aleatória e que vai além do que se pode razoavelmente esperar”. A importância desse “potencial” depende da análise conjunta “entre a gravidade dos eventuais prejuízos ou danos, o grau de autonomia de decisão, a probabilidade de o risco se concretizar e a forma e o contexto em que o sistema de IA é utilizado”. Acrescente-se que ainda será definido o anexo do regulamento contendo um rol exaustivo dos sistemas de IA que se classificam como de alto risco.
Para esses sistemas, o operador “tem a responsabilidade objetiva por quaisquer prejuízos ou danos causados por uma atividade, um dispositivo ou um processo físico ou virtual baseado nesse sistema de IA”, prevalecendo essa regra sobre os regimes nacionais “em caso de classificação divergente da responsabilidade objetiva dos sistemas de IA”.
Nos sistemas que não sejam classificados como de alto risco, o operador “está sujeito à responsabilidade culposa por quaisquer prejuízos ou danos causados por uma atividade, um dispositivo ou um processo físico ou virtual baseado no sistema de IA”. Afasta-se a responsabilidade se o operador puder provar que os eventuais danos ou prejuízos foram causados sem culpa da sua parte, como, por exemplo, quando o sistema de IA tiver sido ativado sem o seu conhecimento, ou se observada a devida diligência por meio da execução de ações específicas.
O terceiro relatório³ volta-se aos DPI para o desenvolvimento de tecnologias ligadas à IA. Nesse contexto, evidencia a importância “de criar segurança jurídica e de instaurar a confiança necessária para incentivar o investimento nessas tecnologias”, recomendando “uma avaliação por setor e por tipo das implicações das tecnologias de IA para os DPI”, considerando “o grau de intervenção humana, a autonomia da IA, o grau de importância do papel desempenhado pelos dados e pelo material protegido por direitos de autor”.
Diferenciam-se as criações humanas assistidas pela IA e as criações geradas pela IA, sublinhando a necessidade de “fazer a distinção entre os DPI para o desenvolvimento de tecnologias de IA e os DPI eventualmente concedidos às criações geradas pela IA”. Considera, nessa perspectiva, que o primeiro tipo de criação deve ser protegido pelos DPI, enquanto “as obras produzidas de forma autônoma por agentes e robôs artificiais podem não ser elegíveis para proteção por direitos de autor”, em decorrência de o princípio da originalidade associar-se a uma pessoa e o conceito de “criação intelectual” se referir à personalidade do autor. Todavia, o relatório admite essa possibilidade, sugerindo uma abordagem horizontal que atribua a titularidade dos direitos a pessoas físicas ou jurídicas que tenham criado legalmente a obra.
A expectativa é a de que no início de 2021 ocorra a apresentação ao Parlamento e ao Conselho da proposta legislativa da Comissão, órgão responsável pela elaboração da maioria das propostas de atos legislativos, formado por representantes de cada Estado-Membro, seguindo-se as etapas do processo legislativo ordinário.
Por: Wilson Sales Belchior
¹ Disponível em: <https://www.europarl.europa.eu/doceo/document/A-9-2020-0186_PT.html>. Acesso em: 03 nov. 2020.
² Disponível em: <https://www.europarl.europa.eu/doceo/document/A-9-2020-0178_PT.html>. Acesso em: 03 nov. 2020.
³ Disponível em: <https://www.europarl.europa.eu/doceo/document/A-9-2020-0176_PT.html>. Acesso em: 03 nov. 2020.