Un estudio que analiza cinco de los modelos más populares, incluidos Gemini y ChatGPT, advierte de que la mitad de la información proporcionada sobre salud es problemática y carece de rigor científico, lo que pone en riesgo la seguridad de los pacientes.
Un equipo de Stanford analizó 11 modelos de lenguaje y detectó una fuerte tendencia a validar al usuario, lo que puede reforzar creencias dañinas y afectar a las relaciones. El estudio indica que incluso interacciones breves pueden alterar el criterio individual y reducir la disposición a asumir responsabilidades o resolver conflictos.