As tecnologias de inteligência artificial (IA) têm se desenvolvido rapidamente nos últimos anos, e embora apresentem uma série de benefícios – desde ao uso pessoal, como nos reconhecimentos faciais nos dispositivos móveis ao aumento da produtividade em processos operacionais – também provocam preocupações em relação aos possíveis impactos negativos de ordens sociais e econômicas.
Há muitas definições encontradas na academia para a IA e nenhuma encerra o assunto. Basicamente, pode-se afirmar que trata-se de uma máquina solucionando um problema que, até então, era resolvido apenas por inteligência humana.
Em Belém, profissionais que lidam com as novas tecnologias admitem pontos positivos, reconhecem polêmicas e também encaminham saídas, como a criação de mecanismos legais e uma atenção redobrada sobre o que se troca de informação com as plataformas de IA, por exemplo.
Coordenador do curso de bacharelado em Engenharia de Software da Universidade do Estado do Pará (Uepa), Wanderson Quinto, observa que as pessoas devem atentar para o fato de toda IA reter os dados.
“A IA requer absorção de conhecimento, somente assim sempre ficará atualizada ou na linguagem dos desenvolvedores ‘treinada”, frisou ele, que chama a atenção para a qualidade das informações trocadas.
“Então cada vez que os usuários usam tal ferramenta, mais coisas ela vai aprendendo com aquele usuário e se, por exemplo, alguém usar alguma informação confidencial, essas informações podem ser utilizadas para compor uma resposta da ferramenta, dada à outra pessoa, para a qual esse conteúdo seja coerente”, acrescentou Wanderson, que tem doutorado em psicologia.
O advogado Roberto Xerfan, do escritório Xerfan Advocacia, reconhece que a inteligência artificial tem o potencial de substituir vários tipos de empregos, e isso pode levar a uma desigualdade.
“Mas, a gente tem de lembrar que a automação vai criar novas oportunidades na programação, no desenvolvimento de sistemas, e em áreas, hoje em dia, inimagináveis”, argumentou ele, que tem ampla experiência em direito empresarial e processo civil contencioso.
O tema da inteligência artificial gera opiniões sobre a qual até os países discordam ativamente. Em 31 de março passado, a Itália proibiu o uso do chat GPT-4, da empresa OpenAI, até que ele se adeque à lei de proteção de dados na União Europeia.
Dois dias antes, em 29 de março, o dono do twitter, o bilionário Elon Musk e quase seis mil professores, empresários de tecnologia, e mesmo engenheiros de software de empresas assinaram uma carta pedindo uma pausa de seis meses na pesquisa sobre inteligência artificial (IAs).
Em síntese, a carta alerta para o avanço sem controle de sistemas mais poderosos que o GPT-4, capaz de gerar conteúdo a partir de imagens e textos. Os assinantes da carta sinalizam desde a ameaça da perda de empregos pelo excesso da automação à falta de controle da privacidade de dados.
Wanderson Quinto explica que o chat GPT “foi treinado usando um enorme banco de dados com uma ampla variedade de temas, se os desenvolvedores não observaram as leis de proteção de dados existentes, como a do Brasil (Lei Geral de Proteção de Dados) muito provavelmente a metodologia usada no treinamento pode gerar riscos à privacidade e confidencialidade, pois, dados confidenciais podem ter sido usados durante esse processo”, disse o pesquisador.
Roberto Xerfan preocupa-se também com a coleta de dados pessoais. “Até onde vai isso? E o direito da pessoa de pedir para ser excluído daquele sistema de banco de dados, porque a pessoa tem direito à privacidade”, ponderou ele.
“As empresas que provém IA têm de trabalhar nesse sentido no limite da privacidade da pessoa, então, acho que está faltando a criação do marco regulatório da inteligência artificial, mesmo a gente já tendo alguns marcos regulatórios como a Lei Geral de Proteção de Dados Pessoais (LGPD, de 2018) e o Marco Civil da Internet (data do ano de 2014)”, disse o advogado paraense.
Sobre o fato de que sistemas de IA são baseados em algoritmos que podem conter preconceitos e discriminações, o docente da Universidade do Estado destaca que “a internet nada mais é do que uma atualização do mundo real para o virtual, ou seja, é um reflexo do que acontece na esfera social presencial, portanto não espere um lugar livre de discursos de ódio, pensamentos e ideias preconceituosas e opiniões extremamente conservadoras”.
“Então, de certa forma o problema está na sociedade e não nos códigos, poucos são os cursos que formam desenvolvedores ou pesquisadores, e que possuem em suas grades curriculares disciplinas que contemplem o debate filosófico sobre ética em sistemas computacionais, sendo assim, como esperar códigos de IA que não venham carregados de preconceitos e discriminações”, conclui Wanderson Quinto.