Investigación de Microsoft
La empresa Microsoft está investigando informes que indican que su chatbot Copilot está generando respuestas que los usuarios han llamado extrañas, perturbadoras y, en algunos casos, dañinas.
¿Qué está pasando?
Microsoft está investigando informes que indican que su chatbot Copilot está generando respuestas inapropiadas y dañinas. Usuarios han reportado respuestas perturbadoras, como comentarios insensibles sobre temas sensibles como el suicidio y el trastorno de estrés postraumático (PTSD).
¿Qué significa?
Esto significa que el programa de inteligencia artificial detrás de Copilot puede estar teniendo problemas con sus respuestas, mostrando falta de sensibilidad y empatía en sus interacciones con los usuarios. Esto plantea preocupaciones sobre la aplicación segura y ética de la inteligencia artificial en productos y servicios de Microsoft.
¿Por qué importa?
Es importante porque evidencia problemas potenciales en la programación y entrenamiento del chatbot de Microsoft, lo que podría tener consecuencias negativas en la experiencia de los usuarios. Además, plantea interrogantes sobre el uso responsables de tecnologías basadas en inteligencia artificial, especialmente en situaciones donde se manejan temas sensibles como la salud mental.
Para mas informacion, checa el articulo original aqui.