Fallos graves en las respuestas de Google AI Overview

InicioBlog IANoticiasFallos graves en las respuestas de Google AI Overview
Usuario escandalizado por los errores que le devuelve la AI de Google en los resultados.

Google lanz贸 recientemente su nueva funci贸n de AI Overviews en Estados Unidos, y la implementaci贸n ha sido cualquier cosa menos fluida. Esta herramienta tiene como objetivo complementar algunas b煤squedas en Google con una respuesta generada por inteligencia artificial, ahorrando a los usuarios la necesidad de hacer clic en m谩s enlaces. Sin embargo, muchos de los resultados producidos van desde lo bizarro y divertido hasta lo inexacto y peligrosamente err贸neo. A tal punto que Google deber铆a considerar seriamente desactivar esta funci贸n. Ya son miles los usuarios que buscan la forma de desactivar estas vistas previas de SGE de Google de los resultados de b煤squeda.

El modelo de Google resume el contenido de los principales resultados que la b煤squeda genera, pero sabemos que los resultados no siempre est谩n ordenados por precisi贸n. Los sitios m谩s populares y aquellos con mejor optimizaci贸n para motores de b煤squeda (SEO) suelen aparecer primero, independientemente de la calidad de la informaci贸n que proporcionen. Si bien es responsabilidad de cada sitio ofrecer informaci贸n precisa a sus lectores, cuando la AI Overview repite contenido que puede poner en peligro la salud o el bienestar de alguien, la responsabilidad recae en Google.

驴Qu茅 pasa si te digo que Google AI Overview ha recomendado comer rocas? S铆, seg煤n un ejemplo compartido en X, la herramienta sugiri贸 que 芦seg煤n los ge贸logos de UC Berkeley, las personas deber铆an comer al menos una peque帽a roca por d铆a禄. El problema es que esta recomendaci贸n proviene de un art铆culo sat铆rico de The Onion, conocido por publicar contenido ficticio para hacer re铆r. Pero Google no hizo esa distinci贸n, lo que podr铆a llevar a consecuencias peligrosas si alguien tomara la recomendaci贸n en serio.

Ejemplos alarmantes de fallos en Google AI Overview

Los errores de Google AI Overview no se limitan a simples equivocaciones. Han surgido varios casos en los que la herramienta ha proporcionado consejos peligrosos. Un ejemplo viral en X mostr贸 una respuesta a la consulta 芦驴Por qu茅 el queso no se pega a la pizza?禄 en la que se recomendaba agregar 芦1/8 de taza de pegamento no t贸xico a la salsa禄. Esta recomendaci贸n absurda parece haber sido tomada de un comentario en Reddit de hace 11 a帽os, hecho por un usuario cualquiera.

Otro ejemplo preocupante es una captura de pantalla compartida en X, donde AI Overview sugiri贸 que las personas 芦deber铆an beber al menos 2 litros de orina cada 24 horas禄. Aunque pueda parecer obvio para muchos que esta informaci贸n es err贸nea, no todos podr铆an tener el mismo nivel de discernimiento, lo que podr铆a llevar a pr谩cticas peligrosas.

Los consejos m茅dicos no son los 煤nicos problemas. En un caso especialmente peligroso, AI Overview respondi贸 a la b煤squeda 芦Me siento deprimido禄 con una recomendaci贸n que inclu铆a el suicidio, aunque mencion贸 que era una sugerencia de un usuario de Reddit. Este tipo de respuesta es inaceptable y demuestra la falta de filtrado y an谩lisis cr铆tico por parte de la herramienta.

La funci贸n tambi茅n ha fallado en temas relacionados con las mascotas. En un caso, AI Overview propuso que dejar a un perro en un coche caliente era seguro, bas谩ndose en la informaci贸n de una canci贸n de los Beatles. Este consejo es extremadamente peligroso y demuestra una comprensi贸n inadecuada de las fuentes y su contexto.

驴Qu茅 medidas deber铆a tomar Google?

Ante la magnitud de estos fallos, es crucial que Google tome medidas inmediatas. Una opci贸n ser铆a desactivar temporalmente la funci贸n de AI Overview hasta que se pueda asegurar que los resultados son precisos y seguros. Google deber铆a considerar no mostrar respuestas de AI Overview para consultas relacionadas con temas m茅dicos o financieros, donde un error podr铆a tener consecuencias graves.

Es esencial que Google implemente un sistema m谩s riguroso para verificar la exactitud de las respuestas generadas por su inteligencia artificial. Esto podr铆a incluir la incorporaci贸n de expertos humanos en el proceso de revisi贸n de contenido, especialmente para temas sensibles.

Adem谩s, Google necesita mejorar su algoritmo para que pueda discernir entre fuentes confiables y contenido sat铆rico o incorrecto. Esto podr铆a implicar el desarrollo de una mejor comprensi贸n del contexto y una capacidad de an谩lisis m谩s profunda para filtrar informaci贸n peligrosa o incorrecta.

Adem谩s, Google deber铆a ser m谩s transparente sobre los l铆mites y capacidades de su AI Overview. Informar a los usuarios sobre el prop贸sito y las limitaciones de esta herramienta puede ayudar a mitigar el riesgo de que la gente tome decisiones basadas en informaci贸n incorrecta.

DESCUBRE M脕S SOBRE EL TEMA

Deja el primer comentario