Ingeniero de Microsoft alerta: IA crea imágenes violentas y sexuales
¿Qué está pasando?
Shane Jones, un ingeniero de inteligencia artificial en Microsoft, ha experimentado una preocupación creciente por las imágenes generadas por la herramienta de IA de Microsoft, Copilot Designer. Desarrollada con tecnología de OpenAI, esta herramienta de generación de imágenes fue lanzada en marzo de 2023 y permite a los usuarios crear imágenes basadas en prompts de texto. Jones ha descubierto que el servicio de IA ha producido imágenes perturbadoras que incluyen demonios, monstruos, adolescentes con rifles de asalto, imágenes sexualizadas de mujeres en contextos violentos, y menores bebiendo alcohol y usando drogas. Estas observaciones contradicen los principios de IA responsable de Microsoft. Jones ha estado probando activamente el producto buscando vulnerabilidades, una práctica conocida como red-teaming. A pesar de reportar internamente sus hallazgos desde diciembre, Microsoft no ha retirado el producto del mercado.
¿Qué significa?
La situación expone preocupaciones significativas sobre la ética y la responsabilidad en el desarrollo de la tecnología de IA. A pesar de las repetidas alarmas de Jones y sus intentos por comunicarse tanto con Microsoft como con OpenAI, no se han tomado medidas suficientes para abordar estos problemas. Jones incluso recurrió a escribir una carta abierta en LinkedIn y contactar a senadores de EE. UU. y al Comité del Senado sobre Comercio, Ciencia y Transporte, lo que refleja la gravedad de sus preocupaciones. La persistencia de Jones en escalar el asunto, incluso escribiendo a la presidenta de la Comisión Federal de Comercio, Lina Khan, y a la junta directiva de Microsoft, destaca un conflicto entre los principios éticos de la IA y las decisiones empresariales, así como la necesidad de salvaguardias y regulaciones más estrictas en el desarrollo y uso de tecnologías de IA avanzadas.
¿Por qué importa?
Esta situación subraya un desafío significativo en el campo de la IA: el equilibrio entre innovación y responsabilidad ética. La capacidad de las herramientas de IA para generar contenido ofensivo o inapropiado sin salvaguardas adecuadas plantea preocupaciones sobre el impacto social de la tecnología y la necesidad de regulaciones más estrictas. Además, la experiencia de Jones revela problemas potenciales en la gobernanza corporativa y las prácticas de responsabilidad en gigantes tecnológicos como Microsoft, así como en colaboraciones de alto perfil con entidades como OpenAI. La respuesta de Microsoft a las preocupaciones de Jones, optando por continuar el marketing de Copilot Designer a pesar de los riesgos evidentes, sugiere un área crítica de discusión sobre la ética en tecnología, el papel de los reguladores y la importancia de proteger al público de los posibles daños generados por el uso indebido de la IA.
Para mas informacion, checa el articulo original aqui.