Especialistas alertam para riscos da inteligência artificial e poder das big techs

Especialistas alertam para riscos da inteligência artificial e poder das big techs

Tristan Harris, ex-engenheiro do Google e cofundador do Center For Humane Technology, destacou no SXSW 2026 os riscos que as big techs representam para a autonomia humana e o mercado de trabalho. Em 2022, Harris já havia alertado sobre os perigos das redes sociais no documentário “O Dilema das Redes”. Agora, ele retorna com um novo documentário, “The A.I. Doc: Or How I Became an Apocaloptimist”, abordando os avanços e riscos da inteligência artificial (IA).

Comparação entre Redes Sociais e IA

Harris compara as redes sociais a uma “Baby AI”, devido ao uso de algoritmos de recomendação que mantêm os usuários engajados. No entanto, ele destaca que a IA vai além, buscando intimidade e apego, como visto em companheiros virtuais. A IA, segundo Harris, compromete a autonomia humana ao operar com objetivos próprios, muitas vezes ocultos dos usuários.

Os especialistas apontam que as big techs não visam apenas lucros por assinaturas ou anúncios, mas pretendem substituir a força de trabalho em larga escala. Harris alerta que a IA pode catalisar outras corridas armamentistas, como a cibernética e biológica. Além disso, criticam os incentivos fiscais para data centers em detrimento de áreas como educação.

Harris e Anthony Aguirre, CEO do Future of Life Institute, defendem uma regulamentação ética da IA, mas reconhecem que o poder político das big techs dificulta intervenções regulatórias. Eles sugerem boicotes e pressão econômica contra essas empresas, além de promover clareza e transparência sobre o funcionamento das tecnologias.

Harris conclui que a tecnologia deve empoderar os humanos, não torná-los dependentes. Aguirre exemplifica com IAs dedicadas a propósitos específicos, como educação, em vez de sistemas generalistas.

Fonte:https://www.meioemensagem.com.br/sxsw/de-o-dilema-das-redes-ao-risco-existencial-da-ia

Comments

No comments yet. Why don’t you start the discussion?

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *