top of page

tópicos

Insights sobre Design Comportamental

Receba nossos tópicos por e-mail

O risco invisível da Inteligência Artificial

  • Foto do escritor: Renata Jaeger
    Renata Jaeger
  • 23 de fev.
  • 3 min de leitura

Muito tem se falado sobre inteligência artificial: no trabalho, nas rodas de amigos, nas conversas mais triviais. E a verdade é que essa conversa não vai parar tão cedo – e nem deveria.


O que eu particularmente vejo acontecendo é uma postura um tanto ingênua de como nós – e perceba que me incluo nisso – temos tratado esse debate.


Os modelos de IA realmente aumentaram o acesso à informação, facilitaram buscas, automatizaram tarefas e aceleraram decisões. É inegável que existem ganhos reais. A tecnologia tem potencializado eficiência, ampliado acesso e reduzido barreiras.


Mas existe o outro lado da moeda. E ele precisa ser levado a sério.


Cada vez mais, as tecnologias que usamos no dia a dia são substituídas por modelos conversacionais. Interfaces que dialogam conosco — e, muitas vezes, dialogam entre si. Já vemos sistemas dirigindo carros, controlando drones, regulando energia.


E diferente de outras revoluções tecnológicas, que ampliaram principalmente nossa força física ou nossa velocidade de comunicação, a IA começa a mediar algo mais sensível: julgamento, interpretação, decisão.


Por isso, o desafio não me parece apenas técnico. Ele é humano.


A pergunta central talvez não seja “o que a IA é capaz de fazer?”, mas “o que estamos delegando a ela?”.


Ou "Isso potencializa a nossa humanidade — ou nos afasta ainda mais uns dos outros?".


É verdade que a IA não criou a solidão contemporânea, o individualismo ou a fragmentação social. Esses fenômenos já estavam em curso muito antes dela. Mas talvez estejamos diante de uma tecnologia que amplifica e acelera essas dinâmicas.

Eu fico particularmente inquieta quando alguém me conta que está usando o ChatGPT para fins terapêuticos. Minha reação imediata é perguntar: por que você não conversou com um amigo? Com sua família? Se possível, com um terapeuta?


Ao mesmo tempo, é preciso reconhecer que nem todos têm acesso a redes de apoio ou a terapia. Para algumas pessoas, a IA pode representar acolhimento inicial, anonimato ou redução de estigma.


O problema talvez não esteja no uso — mas na substituição silenciosa de vínculos humanos por interações mediadas por algoritmo.


Os modelos podem nos oferecer clareza racional, síntese e organização de ideias. Mas se passamos a terceirizar progressivamente nossa reflexão, nossa interpretação e até nossos dilemas morais, o que acontece com nossa autonomia ao longo do tempo?


Há ainda a questão dos vieses. Sistemas refletem as bases de dados que os alimentam — e essas bases não são neutras. Rostos negros historicamente são menos reconhecidos. Cargos de liderança ainda aparecem majoritariamente associados a homens. Isso não é detalhe técnico. É reprodução estrutural.


Mas o ponto vai além do viés dos dados. Modelos de IA são desenvolvidos dentro de estruturas econômicas específicas, com incentivos voltados para escala, engajamento e retenção. Então a pergunta não deve ser apenas “como eu uso a IA?” e passa a ser também “como ela foi desenhada para ser usada?”.


Quando falamos em intencionalidade, ela não é apenas individual. Ela é coletiva, institucional e regulatória. Envolve design responsável, educação digital, transparência e debate público de qualidade.


No fim, não se trata de demonizar a tecnologia. Trata-se de uma maior consciência –individual e também coletiva.


O futuro passa por aprender a usar a inteligência artificial a nosso favor, sem abrir mão daquilo que nos torna humanos: conexão, responsabilidade e capacidade crítica.


Talvez o risco invisível da IA não seja uma ruptura brusca — mas pequenas delegações silenciosas que, acumuladas ao longo do tempo, alteram a forma como pensamos, decidimos e nos relacionamos.


E você? A forma como utiliza a IA tem ampliado sua humanidade — ou te afastado mais de outras pessoas?

Comentários


  • LinkedIn
  • Instagram

© 2025 por studio bitten

bottom of page