Daniel Torres Gonçalves
Mariana Guimarães Gomes
Fevereiro 23, 2023
ChatGPT e o DALL-E: O impacto da Inteligência Artificial
A Inteligência Artificial (IA) já não se cinge, apenas, ao nosso imaginário coletivo. Na verdade, há muito que tal extravasou a ficção e integrou o nosso quotidiano. Consideráveis investimentos têm acompanhado a densa investigação ao longo das últimas décadas, contribuindo para o aperfeiçoamento da robótica (com particular incidência na área da saúde, através das cirurgias executadas por robôs), para a adaptação dos veículos autónomos ao meio envolvente e, mais recentemente, para a integração de ferramentas de IA generativa nas nossas atividades diárias.
Os primeiros desafios jurídicos que surgem neste contexto dizem respeito à atribuição de responsabilidade decorrente da operabilidade dos sistemas de IA, em particular no que concerne à biotecnologia. De facto, quando a falha de um robô origina um erro cirúrgico, de quem será a responsabilidade pelos danos provocados? Do fabricante do robô, da instituição hospitalar que o adquiriu ou do cirurgião que se socorreu dele?
Tais questões podem ser transpostas, ainda, para o contexto automóvel. Se de um sinistro automóvel, no qual se encontre envolvido um veículo autónomo, resultarem danos para outro veículo ou pessoa, a quem será imputável a responsabilidade por tais prejuízos e sequelas?
Sobram as perguntas, escasseiam as respostas – a verdade é que a lei admite diferentes interpretações sendo que, muitas vezes, a resposta não será tão imediata quanto desejaríamos.
O desenvolvimento de ferramentas de IA cuja utilização é direcionada, essencialmente, para o consumidor final, têm espoletado novos desafios para velhas realidades. A IA generativa – como é o caso da interface ChatGPT (que gera texto) e da DALL-E (que gera imagens) – assenta em algoritmos que viabilizam a conceção de novas obras visuais, sonoras, textuais, publicitárias, entre muitas outras criações.
Sucede que, a utopia inerente a estas matérias é acompanhada de equivalente distopia. O desempenho destes sistemas de IA assenta em grandes conjuntos de dados (Big Data), recolhidos para tratamento e criação de um resultado como os mencionados acima. Deste processo resultam, desde logo, dois grandes desafios jurídicos: a privacidade e a propriedade intelectual.
No que concerne à privacidade, a recolha e utilização de dados pessoais, nomeadamente para alimentar sistemas de IA, aumenta o risco de que tal seja feito de forma não autorizada. Além disso, a existência de viés nos dados que passe a estar imbuído nos sistemas, será suscetível de gerar resultados discriminatórios e injustos, o que pode afetar a privacidade ou condicionar o acesso a créditos e deturpar processos de recrutamento.
Por sua vez, no que concerne à propriedade intelectual, atribuir a autoria a um algoritmo vai contra os fundamentos dos direitos de autor. Ao mesmo tempo, é de questionar se será justo que os autores dos dados que servem de base ao treino da IA não sejam compensados nem reconhecidos. O tema da proteção dos direitos de autor já era complexo – acabou de se tornar ainda mais.
Outros desafios sociais tais como a segurança cibernética vulnerável a ataques informáticos, os erros ainda recorrentes dos quais padecem as informações geradas por estes sistemas, a excessiva dependência da tecnologia que dificultará a resolução de problemas sem a sua utilização e o eventual colapso do processo criativo para os artistas são tópicos que merecem a nossa atenção no curto prazo.
A lei deve ser geral e abstrata. A discussão sobre se a lei deve ser neutra, face ao desenvolvimento da tecnologia, não é consensual. Muitas das novas realidades não se enquadram naquilo que o legislador considerou quando criou a lei. Importa salientar que, acima de tudo, é importante que a legislação seja flexível e adaptável, para que seja possível acompanhar a evolução tecnológica e assegurar que a tecnologia será usada de forma ética e responsável.