(Divulgação)
COLUNA
Allan Kardec
É professor universitário, engenheiro elétrico com doutorado em Information Engineering pela Universidade de Nagoya e pós-doutorado pelo RIKEN (The Institute of Physics and Chemistry).
Coluna do Kardec

A espada de duas lâminas

Os riscos da inteligência artificial generalista

Allan Kardec

 
 

A Inteligência Artificial Generalista (IAG) é um tipo de inteligência artificial que possuiria capacidades cognitivas comparáveis às dos humanos. Diferente da IA de hoje, que é treinada para realizar tarefas específicas como reconhecimento facial ou tradução de idiomas, a IAG seria capaz de aprender, entender e resolver uma ampla gama de problemas, assim como um ser humano.

De fato, a promessa de uma IAG, capaz de realizar uma ampla gama de tarefas com a mesma maestria que os humanos, é tentadora. No entanto, a corrida desenfreada para alcançar essa meta traz consigo um conjunto de problemas complexos. Trago aqui algumas preocupações do que está sendo debatido em comunidade de especialistas em Inteligência Artificial.

Uma das preocupações mais imediatas é o potencial de deslocamento de empregos. À medida que os sistemas de IA se tornam cada vez mais sofisticados, eles podem automatizar tarefas anteriormente realizadas por humanos, levando a desemprego. Essa disrupção econômica poderia igualmente aumentando as desigualdades sociais, impactando as populações vulneráveis ​​mais ainda.

Há outros problemas. Os sistemas de IA, treinados em conjuntos de dados vastos, podem herdar e amplificar vieses existentes, levando a resultados discriminatórios. Isso pode se manifestar de várias maneiras, desde algoritmos de recrutamento tendenciosos até aprovações de empréstimos discriminatórias, perpetuando e até amplificando as desigualdades sociais existentes. 

Violações da privacidade são outra preocupação premente. Sistemas de IAG poderiam ser potencialmente usados ​​para coletar e analisar informações pessoais, levantando sérias preocupações sobre vigilância e violação da privacidade.

Além disso, a militarização de sistemas de IA representa uma outra ameaça. O potencial para sistemas de armas autônomas, capazes de tomar decisões de vida ou morte sem intervenção humana, levanta dilemas éticos e legais profundos.

Além das preocupações sociais, os riscos técnicos também exigem atenção. A natureza complexa dos sistemas de IA pode levar a consequências não intencionais, onde interações imprevisíveis com o mundo real resultam em resultados inesperados e potencialmente prejudiciais. Além disso, a falta de transparência em modelos de IA, onde os processos de tomada de decisão permanecem pouco claros, dificulta a compreensão, previsão e controle de seu comportamento, aumentando o risco de erros e uso indevido.

Vulnerabilidades de segurança são outra preocupação, pois os sistemas de IA podem ser suscetíveis a hackers e manipulação. O potencial de atores mal-intencionados sequestrarem ou corromperem sistemas de IA para fins nefastos exige medidas de segurança robustas para proteger esses sistemas e suas saídas.

Existe um risco de que sistemas de IA autônomos operem além da supervisão humana, levando a cenários em que os humanos não podem intervir efetivamente. Isso poderia resultar em sistemas de IA perseguindo objetivos indesejáveis ou se envolvendo em comportamentos prejudiciais sem consentimento ou controle humano. A capacidade de uma IA tomar decisões complexas e independentes levanta a questão crucial: quem é responsável quando as coisas derem errado?

Enfim, embora a IA prometa imensamente melhorar nossas vidas, o rápido desenvolvimento de sistemas de IA generalistas apresenta um cenário complexo e desafiador de riscos. Abordar esses riscos exige uma abordagem multifacetada que combine soluções tecnológicas, estruturas éticas, governança forte e engajamento público. 

A IA tem o potencial de revolucionar a sociedade, mas é crucial lembrar que a tecnologia em si não é boa nem má. Cabe à humanidade usar a IA de forma responsável e ética, garantindo que ela beneficie a todos e não amplie as disparidades e os problemas que já enfrentamos.

*Allan Kardec Duailibe Barros Filho, 54 anos, é doutor em engenharia da informação pela Universidade de Nagoya (Japão). É professor titular da UFMA (Universidade Federal do Maranhão). Foi diretor da ANP (Agência Nacional do Petróleo, Gás Natural e Biocombustíveis) e atualmente é presidente da Gasmar (Companhia Maranhense de Gás)


 

As opiniões, crenças e posicionamentos expostos em artigos e/ou textos de opinião não representam a posição do Imirante.com. A responsabilidade pelas publicações destes restringe-se aos respectivos autores.

Leia outras notícias em Imirante.com. Siga, também, o Imirante nas redes sociais Twitter, Instagram, TikTok e canal no Whatsapp. Curta nossa página no Facebook e Youtube. Envie informações à Redação do Portal por meio do Whatsapp pelo telefone (98) 99209-2383.