Google defiende las respuestas extrañas de la función “Resúmenes creados con IA”

Los usuarios afirman que han recibido respuestas problemáticas, como sugerencias para comer piedras y pegamento

Andrew Griffin
Viernes, 24 de mayo de 2024 12:41 EDT
Google Planea Utilizar Inteligencia Artificial En Los Resultados De Búsqueda
Read in English

Google defendió su función “Resúmenes creados con IA”, después de que los usuarios denunciaran haber recibido respuestas extrañas.

La herramienta está pensada para complementar los resultados tradicionales de Google y utilizar inteligencia artificial para responder a las consultas. El sistema utiliza datos de Internet para elaborar respuestas; de hecho, Google afirma que la herramienta facilitará las búsquedas.

Sin embargo, en los últimos días, los usuarios de Google han denunciado que el sistema los ha animado a comer piedras, hacer pizzas con pegamento y ha reiterado una falsa teoría de conspiración de que Barack Obama es musulmán.

Algunas de esas respuestas parecían haber sido extraídas de resultados en línea. Por ejemplo, la recomendación de que la masa de una pizza quedaría más gomosa si se utilizara pegamento parece proceder de una broma que se publicó en Reddit.

Ahora Google alega que dichos ejemplos se referían a consultas poco frecuentes y afirma que la herramienta funciona bien en general.

“Los ejemplos que hemos visto son en general consultas muy poco comunes y no son representativas de las experiencias de la mayoría de la gente”, sostuvo un portavoz. “La gran mayoría de los resúmenes creados con IA ofrecen información de gran calidad y enlaces para profundizar en la web”.

“Antes de lanzar esta nueva experiencia, realizamos pruebas exhaustivas para garantizar que los resúmenes creados con IA cumplan nuestro alto nivel de calidad. Cuando se han producido infracciones de nuestras políticas, hemos tomado medidas, y también estamos utilizando estos ejemplos aislados para seguir perfeccionando nuestros sistemas en general”.

La empresa recalcó tres medidas: que había añadido salvaguardias a su sistema con vistas a impedir que aparecieran contenidos nocivos, que había sometido el sistema a un proceso de evaluación y pruebas, y que los resúmenes de IA se habían creado para cumplir sus políticas vigentes.

Según Google, también ha estado trabajando en mejorar el sistema para que ofrezca mejores respuestas objetivas.

Al parecer, los problemas se debieron en parte a los datos que se utilizan para elaborar las respuestas, que pueden incluir chistes u otros contenidos que resultan engañosos cuando se reutilizan en una respuesta. Pero parte del problema también puede ser la tendencia a “alucinar” de los grandes modelos lingüísticos como los que utiliza Google.

Debido a que esos grandes modelos lingüísticos se alimentan de datos lingüísticos y no de hechos, tienden a dar respuestas que pueden estar redactadas de forma convincente, pero que en realidad incluyen mentiras. Algunos expertos han sugerido que tales problemas son inherentes a esos sistemas.

Thank you for registering

Please refresh the page or navigate to another page on the site to be automatically logged inPlease refresh your browser to be logged in