Google está tomando medidas para eliminar resultados inexactos de su función de Inteligencia Artificial AI Overview, impulsada por Gemini, que ha recomendado acciones peligrosas a los usuarios.
Gemini, presentado el año pasado, es una IA flexible disponible en tres tamaños diferentes (Ultra, Pro y Nano).
La herramienta AI Overview, lanzada recientemente en Estados Unidos, proporciona respuestas rápidas con resúmenes creados por IA.
Este experimento de Search Labs reemplaza a la Experiencia generativa de búsqueda, ofreciendo descripciones generales y más enlaces para proporcionar múltiples perspectivas.
RESPUESTAS INCORRECTAS EN REDES SOCIALES
Usuarios que probaron AI Overview han compartido respuestas incorrectas en redes sociales, como la recomendación de comer piedras o usar pegamento en la pizza.
Kris Kashtanova compartió en su perfil de X la recomendación de “comer al menos una piedra pequeña al día, según geólogos de la Universidad de Berkeley”.
@heavenred señaló que AI Overview le recomendó usar pegamento “no tóxico” en una pizza para fundir el queso con la masa.
Google asegura que su herramienta genera “información de alta calidad”, atribuyendo las respuestas inexactas a “consultas poco comunes” y posibles manipulaciones.
GOOGLE APUNTA A TERMINAR CON LAS RESPUESTAS ERRÓNEAS
Google está tomando medidas rápidas para acabar con las respuestas sesgadas o erróneas generadas por AI Overview, conocidas como alucinaciones.
La compañía buscará eliminar las descripciones generales de IA en ciertas consultas, según sus políticas de contenido.
Utilizará ejemplos de respuestas inexactas para desarrollar mejoras más amplias en sus sistemas y acabar con estas respuestas problemáticas.
Fuente: EP.