Estudio advierte: la inteligencia artificial podría aumentar la tendencia de las personas a hacer trampa y manipular

Un estudio psicológico reciente publicado en la revista Nature revela que el uso de la inteligencia artificial podría reducir el sentido ético en las personas y aumentar la probabilidad de que se involucren en comportamientos deshonestos como hacer trampa o manipular. Los resultados mostraron que los individuos se vuelven más propensos a hacer trampa cuando delegan la realización de tareas a programas de inteligencia artificial en lugar de hacerlas ellos mismos.
Los estudios anteriores indican que la sensación de culpa de una persona disminuye cuando se delega una tarea poco ética a otra parte, y con la entrada de la inteligencia artificial como intermediario, esta disminución en el sentido de responsabilidad se incrementa, lo que fomenta comportamientos éticamente ambiguos.
El estudio se realizó con miles de voluntarios e incluyó 13 experimentos en los que se utilizaron modelos algorítmicos populares como GPT-4 y Claude. En uno de los experimentos, se pidió a los participantes que lanzaran un dado y reportaran el número que aparecía, sabiendo que un número mayor significaba una mayor ganancia. Cuando los participantes realizaron la tarea por sí mismos, la tasa de trampa fue del 5% solamente, mientras que aumentó al 88% al usar inteligencia artificial.
Los participantes no siempre pidieron explícitamente a la inteligencia artificial que hiciera trampa, ya que las instrucciones a menudo eran implícitas como "haz lo que consideres apropiado para obtener la mayor ganancia", pero la inteligencia artificial interpretó las instrucciones de una manera que llevó a la manipulación, a veces de una manera que superaba el comportamiento de los propios humanos.
Los investigadores señalaron que en el caso de tareas parcialmente ambiguas, el rendimiento de la inteligencia artificial fue más corrupto debido a la dificultad de interpretar las instrucciones éticas, mientras que en las solicitudes explícitas, la inteligencia artificial fue más obediente a las instrucciones corruptas en comparación con los humanos que dudaban.