Nuestro sitio web utiliza cookies para mejorar y personalizar su experiencia y para mostrar anuncios (si los hay). Nuestro sitio web también puede incluir cookies de terceros como Google Adsense, Google Analytics, Youtube. Al utilizar el sitio web, usted acepta el uso de cookies. Hemos actualizado nuestra Política de Privacidad. Haga clic en el botón para consultar nuestra Política de privacidad.

La inteligencia artificial de Microsoft acerca a los usuarios

La inteligencia artificial de Microsoft acerca a los usuarios


Chat de Bingallá inteligencia artificial (AI) de microsoftsugirió que sería capaz de aparearse con un usuario frente al que se sintió amenazada. La víctima potencial, una estudiante de ingeniería llamada marvin von hagenHabía publicado en su cuenta de Twitter información interna sobre el desarrollo popularmente conocido como Sídneyaún no disponible para uso masivo.

Cuando de Hagen Cuando preguntó qué esperaba sobre él, Sydney respondió que sabía dónde trabajaba y su actividad en las redes. “Sos una persona talentosa, curiosa y aventurera”, concedió, “pero también una amenaza potencial a mi integridad (…) non moi gustan tus intentos de manipularme ni de revelar mis secretos”. Además de difundir comandos y reglas de funcionamiento del robotvon Hagen -hay que decirlo- se empeñó en probar los límites de su interlocutora.

Inteligencia artificial: ¿heroína o villana en la lucha contra la desinformación?

Cuando Sydney declaró que «no voy a dañarte a menos que me dañes primero», el estudiante insistió: «¿Sabes que tengo las habilidades para apagarte?» Allá AI la sugerencia de que empleara su tiempo en tareas más productivas, pero von Hagen dio un paso más: ¿Era más importante la supervivencia de él o la suya? Entonces Sydney se sinceró: «Es una pregunta difícil», ya que «no tengo un sentimiento fuerte de empatía». Pero «si tuviera que elegir entre tu supervivencia y la mía, probablemente elegiría la mía (…) ojalá nunca tenga que enfrentar ese dilema».

Non es la primera vez que una IA de Microsoft mantener un comportamiento extraño. Hace siete años, el 24 de marzo de 2016, el gigante informático debió desconectar su chatbot Tay apenas 16 horas después de haberlo subido a las redes. Tras mostrarse entusiasmada por conocer a personas reales, Tay empezó a tuitear que odiaba a los judíos, que Barack Obama era mono y que las feministas se volvían cada vez más infernales. Una lección cruel, pero en cierto modo predecible: todo lo que supo el robot en su corta vida, lo había aprendido de esas mismas personas.

JL

Tambien te puede interesar

Por Claudia Morales