Los chatbots que generan contenidos con Inteligencia Artificial pueden desviarse de la verdad. Un estudio reciente, expuesto en este art铆culo recomendado, los chatbots pueden inventar realidades entre un 3% hasta llegar al 27% de lo que exponen.
Este comportamiento se conoce como ‘alucinaci贸n’. El problema puede ser grave cuando se usa dicha tecnolog铆a para documentos judiciales, informaci贸n m茅dica o datos comerciales confindenciales. Esas alucinaciones, adem谩s, no son f谩ciles de resolver. De hecho, el estudio ha comprobado que tecnolog铆as pensadas para detectar las alucinaciones pueden ser enga帽ados por el contenido generado.