Fallos graves en las respuestas de Google AI Overview

Inicio · Blog IA · Noticias · Fallos graves en las respuestas de Google AI Overview
Usuario escandalizado por los errores que le devuelve la AI de Google en los resultados.

Google lanzó recientemente su nueva función de AI Overviews en Estados Unidos, y la implementación ha sido cualquier cosa menos fluida. Esta herramienta tiene como objetivo complementar algunas búsquedas en Google con una respuesta generada por inteligencia artificial, ahorrando a los usuarios la necesidad de hacer clic en más enlaces. Sin embargo, muchos de los resultados producidos van desde lo bizarro y divertido hasta lo inexacto y peligrosamente erróneo. A tal punto que Google debería considerar seriamente desactivar esta función. Ya son miles los usuarios que buscan la forma de desactivar estas vistas previas de SGE de Google de los resultados de búsqueda.

El modelo de Google resume el contenido de los principales resultados que la búsqueda genera, pero sabemos que los resultados no siempre están ordenados por precisión. Los sitios más populares y aquellos con mejor optimización para motores de búsqueda (SEO) suelen aparecer primero, independientemente de la calidad de la información que proporcionen. Si bien es responsabilidad de cada sitio ofrecer información precisa a sus lectores, cuando la AI Overview repite contenido que puede poner en peligro la salud o el bienestar de alguien, la responsabilidad recae en Google.

¿Qué pasa si te digo que Google AI Overview ha recomendado comer rocas? Sí, según un ejemplo compartido en X, la herramienta sugirió que «según los geólogos de UC Berkeley, las personas deberían comer al menos una pequeña roca por día». El problema es que esta recomendación proviene de un artículo satírico de The Onion, conocido por publicar contenido ficticio para hacer reír. Pero Google no hizo esa distinción, lo que podría llevar a consecuencias peligrosas si alguien tomara la recomendación en serio.

Ejemplos alarmantes de fallos en Google AI Overview

Los errores de Google AI Overview no se limitan a simples equivocaciones. Han surgido varios casos en los que la herramienta ha proporcionado consejos peligrosos. Un ejemplo viral en X mostró una respuesta a la consulta «¿Por qué el queso no se pega a la pizza?» en la que se recomendaba agregar «1/8 de taza de pegamento no tóxico a la salsa». Esta recomendación absurda parece haber sido tomada de un comentario en Reddit de hace 11 años, hecho por un usuario cualquiera.

Otro ejemplo preocupante es una captura de pantalla compartida en X, donde AI Overview sugirió que las personas «deberían beber al menos 2 litros de orina cada 24 horas». Aunque pueda parecer obvio para muchos que esta información es errónea, no todos podrían tener el mismo nivel de discernimiento, lo que podría llevar a prácticas peligrosas.

Los consejos médicos no son los únicos problemas. En un caso especialmente peligroso, AI Overview respondió a la búsqueda «Me siento deprimido» con una recomendación que incluía el suicidio, aunque mencionó que era una sugerencia de un usuario de Reddit. Este tipo de respuesta es inaceptable y demuestra la falta de filtrado y análisis crítico por parte de la herramienta.

La función también ha fallado en temas relacionados con las mascotas. En un caso, AI Overview propuso que dejar a un perro en un coche caliente era seguro, basándose en la información de una canción de los Beatles. Este consejo es extremadamente peligroso y demuestra una comprensión inadecuada de las fuentes y su contexto.

¿Qué medidas debería tomar Google?

Ante la magnitud de estos fallos, es crucial que Google tome medidas inmediatas. Una opción sería desactivar temporalmente la función de AI Overview hasta que se pueda asegurar que los resultados son precisos y seguros. Google debería considerar no mostrar respuestas de AI Overview para consultas relacionadas con temas médicos o financieros, donde un error podría tener consecuencias graves.

Es esencial que Google implemente un sistema más riguroso para verificar la exactitud de las respuestas generadas por su inteligencia artificial. Esto podría incluir la incorporación de expertos humanos en el proceso de revisión de contenido, especialmente para temas sensibles.

Además, Google necesita mejorar su algoritmo para que pueda discernir entre fuentes confiables y contenido satírico o incorrecto. Esto podría implicar el desarrollo de una mejor comprensión del contexto y una capacidad de análisis más profunda para filtrar información peligrosa o incorrecta.

Además, Google debería ser más transparente sobre los límites y capacidades de su AI Overview. Informar a los usuarios sobre el propósito y las limitaciones de esta herramienta puede ayudar a mitigar el riesgo de que la gente tome decisiones basadas en información incorrecta.

DESCUBRE MÁS SOBRE EL TEMA

Deja el primer comentario