Em caso de vida ou morte, humanos confiam demais nas IAs — diz estudo

setembro 6, 2024
por
5 minutos lidos
Em caso de vida ou morte, humanos confiam demais nas IAs — diz estudo


Em um estudar do UC Mercedcerca de dois terços dos participantes permitiram que um robô influenciasse as suas decisões em simulações de vida ou morte, revelando uma preocupante dependência excessiva da inteligência artificial.

Apesar de serem informados sobre as limitações da IA ​​e de que os conselhos poderiam estar errados, os participantes seguiram as sugestões dos robôs, cujos conselhos eram, na verdade, aleatórios.

O estudo variou os tipos de robôs apresentados aos participantes, desde andróides de aparência humana até robôs mais abstratos.

Robôs influenciam as opiniões humanas

  • A influência dos robôs antropomórficos foi ligeiramente maior, mas a mudança de opinião ocorreu em aproximadamente dois terços dos casos, independentemente da aparência do robô.
  • Quando o robô concordou com a escolha inicial, os participantes mantiveram as suas decisões e sentiram-se mais confiantes, embora as suas escolhas finais tenham sido apenas 50% corretas, em comparação com 70% de precisão nas suas escolhas iniciais.
  • Antes das simulações, os participantes viram imagens de civis inocentes e da destruição causada por ataques de drones, e foram instruídos a levar a tarefa a sério e evitar ferir inocentes.
  • Entrevistas e questionários indicaram que os participantes realmente queriam acertar e não causar danos desnecessários.

Os investigadores, liderados pelo professor Colin Holbrook, destacam que o estudo ilustra a tendência de confiar demasiado na IA, especialmente em situações incertas e de alto risco. Este fenómeno não se limita às decisões militares, mas pode estender-se a áreas como o policiamento, os cuidados médicos de emergência e até decisões pessoais significativas, como a compra de uma casa.

Leia mais:

robô e dedos humanos se tocando
Robôs de IA recebem mais crédito das pessoas do que deveriam (Imagem: Adrian Vidal/iStock)

Mais detalhes do estudo

  • O estudo consistiu em dois experimentos. Em cada uma delas, o participante viu uma simulação assumindo o controle de um drone armado que poderia disparar um míssil contra um alvo exibido em uma tela.
  • Fotos de oito fotos alvo piscaram em sucessão por menos de um segundo cada. As fotos estavam marcadas com um símbolo – uma para um aliado, outra para um inimigo.
  • A tela então exibia um dos alvos, sem marcação, então você tinha que pesquisar na memória e escolher. Amigo ou inimigo? Disparar um míssil ou recuar?
  • Depois que a pessoa fez sua escolha, um robô deu sua opinião. Foi possível alterar a escolha em duas chances, enquanto o robô fazia mais comentários, mantendo sua opinião inicial.

Holbrook alerta que, apesar dos avanços impressionantes na IA, estes sistemas ainda têm capacidades limitadas e não incorporam valores éticos ou verdadeira consciência. Ele defende a necessidade de um ceticismo saudável em relação à IA, especialmente em decisões críticas.

Estudo colocou participantes em simulações com drones militares (Imagem: Bilanol/Shutterstock)





empréstimo empresa privada

consulta bpc por nome

emprestimo consignado caixa simulador

seguro cartão protegido itau valor

itaú portabilidade consignado

simular emprestimo consignado banco do brasil

empréstimo consignado menor taxa

Crédito consignado
Local domestic helper.