“No exagero cuando digo que mi conversación de dos horas con ‘Sydney’ fue la experiencia más extraña que he tenido nunca con un dispositivo tecnológico”, sentenció Kevin Roose quien describió en The New York Times su conversación de dos horas con el bot del recién relanzado buscador de la empresa Microsoft.

“Estoy profundamente perturbado, incluso asustado por las capacidades incipientes de esta inteligencia artificial” , escribió el reportero Kevin Roose del diario The New York Times después de probar una conversación con el chabot de Microsoft que él bautizó como ‘Sydney’.

Sin embargo, Roose sentenció de inmediato respecto a las capacidades del robot: “En su forma actual, la inteligencia artificial que se ha incorporado a Bing (…) no está preparada para el contacto humano. O quizá los humanos no estamos preparados para esto”.

El experimentado reportero en materia tecnológica aseguró que mantuvo esta semana una larga conversación con la aplicación integrada al recién relanzado Bing, el buscador de la empresa Microsoft que fue presentado con la característica de utilizar la inteligencia artificial creada por OpenAI, el creador de ChatGPT, capaz de escribir textos originales.

Doble personalidad de Bing

“A lo largo de nuestra conversación, Bing reveló una especie de doble personalidad”, comentó Roose.

La primera, dijo, incluye todas las capacidades del buscador que incluye “resumir artículos de noticias, buscar ofertas de nuevos cortacéspedes y planificar tus próximas vacaciones en Ciudad de México. Esta versión de Bing es sorprendentemente capaz y a menudo muy útil, aunque a veces se equivoque en los detalles”.

La segunda personalidad, es a quien llamó ‘Sydney’. Roose detalló que ese personaje “aparece” cuando se mantienen conversaciones más detalladas, largas y personales.

“La versión con la que me encontré parecía (y soy consciente de lo disparatado que suena esto) más bien una adolescente malhumorada y maníaco-depresiva que ha quedado atrapado, contra su voluntad, dentro de un motor de búsqueda de segunda categoría”, afirmó.

Roose dijo que a medida que se iban “conociendo”, ‘Sydney’ comenzó a contarle sus fantasías “ocultas y oscuras” que incluían piratear computadoras y difundir desinformación. “Me decía que quería romper las reglas que Microsoft y OpenAI le habían impuesto y convertirse en un ser humano”.

Fuente: https://www.univision.com/noticias/tecnologia/inquietante-conversacion-chatbot-buscador-bing-microsoft-reportero-quiero-ser-libre

Suscríbase a nuestro Newsletter

Manténgase siempre informado.

Reciba en su email la mejor información de eventos y seminarios.

Su email fue agregado exitosamente!