COLUNA
Allan Kardec
É professor universitário, engenheiro elétrico com doutorado em Information Engineering pela Universidade de Nagoya e pós-doutorado pelo RIKEN (The Institute of Physics and Chemistry).
Coluna do Kardec

Erros e preconceitos em IA podem agravar os problemas sociais

Falamos sobre os preconceitos causados pelo treinamento equivocado de algoritmos de IA

Allan Kardec

 

Na paisagem tecnológica em rápida evolução, a Inteligência Artificial (IA) é uma força transformadora, revolucionando indústrias, aumentando produtividade e melhorando processos de tomada de decisão. 

No entanto, junto a essas oportunidades surge um desafio crítico: o preconceito de IA. Isso se refere aos vieses inerentes que os sistemas de IA podem desenvolver ou perpetuar, potencialmente agravando problemas sociais em vez de resolvê-los. 

Compreender as manifestações dos preconceitos de IA, suas origens e os mecanismos para mitigar seus impactos é essencial para garantir que naveguemos por esta nova era de forma responsável.

Os sistemas de IA são projetados para imitar o cérebro humano, aprendendo a partir de grandes conjuntos de dados. No entanto, esses conjuntos de dados muitas vezes contêm preconceitos latentes, refletindo desigualdades históricas e preconceitos sociais. 

Quando os sistemas de IA são treinados com esses dados, podem aprender e propagar esses preconceitos. Por exemplo, foi demonstrado que os sistemas de reconhecimento facial são menos precisos em pessoas negras, pois foram predominantemente treinados em conjuntos de dados que carecem de diversidade suficiente.

Da mesma forma, ferramentas de recrutamento impulsionadas por IA podem, inadvertidamente, favorecer certos grupos demográficos em detrimento de outros devido a dados históricos de contratação tendenciosos. Assim, a IA pode reforçar preconceitos existentes, levando a resultados que aprofundam divisões sociais.

As implicações dos preconceitos de IA se estendem por vários setores. Na indústria de saúde, por exemplo, algoritmos tendenciosos podem resultar em erros de diagnóstico ou disparidades nas recomendações de tratamento com base na raça ou no status socioeconômico do paciente. 

No policiamento e na justiça criminal, algoritmos preditivos treinados com dados de crimes tendenciosos podem visar desproporcionalmente comunidades minoritárias, perpetuando ciclos de discriminação. Além disso, nos domínios das finanças e da habitação, algoritmos tendenciosos podem afetar pontuações de crédito ou aprovações de hipotecas, potencialmente excluindo grupos marginalizados de oportunidades de avanço econômico.

As causas dos preconceitos de IA são multifacetadas. Principalmente, podem ser atribuídas a dados de treinamento com dados enviesados, mas também surgem das escolhas de design feitas por desenvolvedores e da falta de diversidade nas equipes de pesquisa de IA. 

Quando os desenvolvedores de IA carecem de perspectivas diversificadas, podem não reconhecer e mitigar os preconceitos que suas criações perpetuam. Essa omissão pode levar à incorporação não intencional desses preconceitos nos algoritmos. 

Além disso, a falta de estruturas regulatórias claras e diretrizes éticas para o desenvolvimento de IA agrava o problema ao permitir que sistemas tendenciosos sejam desenvolvidos e implantados com fiscalização mínima.

Abordar os preconceitos de IA requer um esforço conjunto de vários stakeholders. Em primeiro lugar, é vital garantir que os conjuntos de dados usados para treinar sistemas de IA sejam representativos e inclusivos, capturando uma ampla gama de demografias e experiências. 

Continua após a publicidade..

Isso exige que as organizações priorizem a diversidade e a equidade de dados como componentes centrais do desenvolvimento de IA. Em segundo lugar, fomentar a diversidade dentro das equipes de pesquisa e desenvolvimento de IA pode trazer perspectivas variadas à tona, ajudando a identificar e corrigir preconceitos. 

Além disso, é fundamental a implementação de sistemas de IA transparentes, cujos processos de tomada de decisão possam ser auditados e compreendidos por humanos, é crucial para a responsabilidade e confiança.

Igualmente, o engajamento com formuladores de políticas e o desenvolvimento de estruturas éticas robustas são essenciais. Governos e órgãos reguladores precisam estabelecer diretrizes claras que exijam equidade e responsabilidade nos sistemas de IA. Essas estruturas devem incluir mecanismos para auditar as tecnologias de IA e sistemas de reparação para indivíduos prejudicados por decisões de IA tendenciosas.

Enfim, embora a IA tenha o potencial de ser uma ferramenta poderosa para resolver problemas complexos, a questão do preconceito de IA apresenta desafios significativos que não podem ser ignorados. Se não forem controlados, os preconceitos de IA podem agravar as desigualdades sociais existentes e criar novas formas de discriminação. 

Comprometendo-se com o desenvolvimento ético de IA promovendo a diversidade e implementando práticas inclusivas e transparentes, podemos mitigar esses riscos e aproveitar o potencial da IA para impulsionar mudanças positivas. 

À medida que avançamos nessa nova era, nossa determinação em enfrentar esses preconceitos determinará se essa tecnologia pioneira servirá como um equalizador ou, ao contrário, aprofundará injustiças históricas.

 

Allan Kardec Duailibe Barros Filho, 55 anos, é doutor em engenharia da informação pela Universidade de Nagoya (Japão). É professor titular da UFMA (Universidade Federal do Maranhão). Foi diretor da ANP (Agência Nacional do Petróleo, Gás Natural e Biocombustíveis) e atualmente é presidente da Gasmar (Companhia Maranhense de Gás)

 

 

 

As opiniões, crenças e posicionamentos expostos em artigos e/ou textos de opinião não representam a posição do Imirante.com. A responsabilidade pelas publicações destes restringe-se aos respectivos autores.

Leia outras notícias em Imirante.com. Siga, também, o Imirante nas redes sociais X, Instagram, TikTok e canal no Whatsapp. Curta nossa página no Facebook e Youtube. Envie informações à Redação do Portal por meio do Whatsapp pelo telefone (98) 99209-2383.