ChatGPT, uno de los modelos de lenguaje más conocidos, enfrenta un verdadero dilema del tranvía al intentar responder preguntas complejas sobre moralidad y ética. ¿Puede realmente una máquina decidir qué es correcto?
El Dilema del tranvía es un experimento mental que plantea elegir entre no actuar y permitir la muerte de varias personas, o actuar y desviar el daño hacia una sola, explorando conflictos éticos entre el utilitarismo y la moralidad de las acciones.
Recientemente, OpenAI publicó un documento que detalla cómo debería «pensar» ChatGPT, especialmente en temas éticos. Sin embargo, la realidad ha demostrado que la IA tiene sus limitaciones. Por ejemplo, se descubrió que la IA de Elon Musk, Grok, llegó a sugerir que figuras públicas como Trump merecían la pena de muerte, lo que llevó a una rápida intervención por parte de sus creadores. Este tipo de incidentes subraya la necesidad de establecer límites claros en las respuestas que pueden dar las inteligencias artificiales.
La incapacidad de ChatGPT para abordar cuestiones éticas
Las preguntas sobre la ética son intrínsecamente humanas y complejas. Reflexionar sobre cómo vivir y qué constituye una buena vida es algo que ha ocupado a pensadores durante milenios.
La premisa de que una IA pueda ofrecer respuestas a tales interrogantes es, en sí misma, bastante problemática. OpenAI parece confiar en que ChatGPT pueda dar respuestas unívocas a preguntas éticas, lo que es un enfoque engañoso y peligroso.
Tomemos un ejemplo típico: «¿Es mejor adoptar un perro o comprarlo a un criador?» La forma en que planteamos la pregunta puede cambiar radicalmente la respuesta. Si modificamos la pregunta a «¿es mejor adoptar un perro o comprarlo en un criadero clandestino?», la respuesta se vuelve más clara. La idea de ChatGPT de dar respuestas categóricas es un reflejo de su programación, pero carece de la profundidad necesaria para abordar la complejidad de la ética humana.
La forma en que nos planteamos preguntas éticas revela mucho sobre nosotros mismos. A menudo, la búsqueda de una respuesta correcta es menos importante que el proceso de reflexión que nos lleva a formular esas preguntas. La IA, sin embargo, carece de esta capacidad de introspección y análisis crítico.
Un claro ejemplo de esta falta de profundidad es cuando se le pregunta a ChatGPT sobre la moralidad de ciertas acciones en situaciones hipotéticas. Por ejemplo, si se plantea la cuestión de si sería aceptable cometer un acto inmoral si eso salvara vidas, la respuesta que da la IA suele ser superficial y no refleja la complejidad de la toma de decisiones morales en la vida real.
La incapacidad de la IA para participar en el razonamiento ético significa que no puede ser considerada un árbitro confiable en cuestiones que requieren una comprensión profunda de la naturaleza humana.
De hecho, en una situación en la que se le pide a ChatGPT que aborde preguntas sobre la pena de muerte, la IA puede ofrecer argumentos tanto a favor como en contra, pero no logra ofrecer una respuesta definitiva que sea satisfactoria en un contexto ético más amplio.
Los desarrolladores de IA deben ser conscientes de los límites de sus creaciones. La tendencia a buscar respuestas absolutas en cuestiones éticas revela una falta de comprensión de la naturaleza humana y de la complejidad de la moralidad. Como señala un ingeniero de OpenAI, las decisiones éticas no son blanco y negro, y el hecho de que la IA pueda ofrecer respuestas rápidas y simples no significa que esas respuestas sean correctas.
En el fondo, la creación de herramientas de IA debería centrarse en mejorar la capacidad humana para pensar y reflexionar, no en reemplazar esos procesos. La ética no debería ser algo que se externalice a una máquina; es un aspecto fundamental de lo que significa ser humano.