IE 11 is not supported. For an optimal experience visit our site on another browser.

Amazon permitirá usar la voz de amigos y familiares fallecidos en su asistente Alexa

La nueva función, que imitará voces a partir de audios cortos, podría "hacer que los recuerdos [de los seres queridos fallecidos] perduren" en el tiempo, afirmó la compañía.

Alexa, el asistente virtual de Amazon, ofrecerá la posibilidad de cambiar su voz por la de cualquier persona que elija el usuario, incluida la de un amigo o familiar fallecido, según informó este jueves el diario The Washington Post citando el anuncio realizado por Rohit Prasad, científico jefe de la inteligencia artificial de Alexa durante una presentación celebrada en Las Vegas, en Nevada.

"Alexa, ¿puede la abuela acabar de leerme El Mago de Oz", pregunta un niño en un video promocional sobre esta nueva funcionalidad. "¡Bien!", responde el dispositivo de Amazon, antes de cambiar a una entonación parecida a la de una mujer mayor.

Alexa imitará voces tras aprender a partir de audios de las personas elegidas, para ayudar a que "los recuerdos [de los seres queridos] perduren" en el tiempo, según indicó Prasad.

Esta funcionalidad todavía está en desarrollo y se desconoce cuándo estará disponible, pero la posibilidad de escuchar la voz de personas muertas ya ha generado dudas éticas y de ciberseguridad, según indicaron expertos al citado diario.

[Empleados de Apple en Maryland acuerdan formar el primer sindicato de la empresa en EE.UU.]

"No creo que nuestro mundo esté preparado para una tecnología de clonación de voz fácil de usar", apuntó Rachel Tobac, directora de SocialProof Security. En su opinión, esta tecnología podría utilizarse para manipular al público mediante clips de audio o video falsos.

“Si un delincuente puede replicar fácilmente y de forma creíble la voz de otra persona con una pequeña muestra de voz, puede utilizar eso para hacerse pasar por otros individuos", alertó Tobac.

"Puede engañar a otros para que crean que es la persona a la que está suplantando, lo que puede conducir a fraudes, pérdida de datos, toma de cuentas y más", concluyó la experta en seguridad.

También se plantea el peligro de que se confundan voces humanas con las robóticas. "No vas a recordar que estás hablando con las profundidades de Amazon y sus servicios de recolección de datos si estás hablando con la voz de tu abuela o tu abuelo o la de un ser querido que ya no está", advirtió Tama Leaver, profesora de estudios de Internet en la Universidad de Curtin, en Australia.

[Esta madre texana triunfa con fotos sexuales en redes. Mantiene a sus hijas con el dinero pero familiares religiosos la critican]

Además, Amazon deberá resolver la cuestión del consentimiento cuando se trate de voces de personas fallecidas, agregó Leaver.

Prasad no abordó estos temas durante su presentación, pero subrayó que la posibilidad de imitar voces humanas es el reflejo de que "la inteligencia artificial vive su era dorada", donde los "sueños y la ciencia ficción se están haciendo realidad".