Mi amigo, el fotógrafo Gary, llegó al restaurante por una pachamanca a la olla tres sabores, con carne de res, carnero y pollito. Todo con humita y rocotito estilo serrano, con huacatay molido en batán y queso desmenuzado. Para tomar, un emoliente al tiempo. “María, ayer te comentaba sobre la inteligencia artificial, que está siendo utilizada por los delincuentes para estafar.
Hasta imitan la voz de las personas, como le pasó a la hermana de la modelo Milett Figueroa. Trataron de hacer creer a la mamá que habían secuestrado a la joven. Este es un peligro latente, pues su uso se está haciendo cada vez más común. Estas llamadas usan lo que se conoce como IA generativa, que son sistemas capaces de crear textos, imágenes y hasta videos, a partir de las instrucciones de una persona.
Allí está el video del año pasado que se hizo famoso y que luego fue desmentido, en que el presidente ucraniano Volodymyr Zelensky parecía decirles a los ucranianos que ‘depusieran las armas’. Los expertos señalan que para crear una copia realista de la voz de alguien se necesitan varias grabaciones de audio de esa persona. Pero no se vaya a pensar que solo le puede pasar a personajes conocidos de la radio, la televisión o el espectáculo.
Muchas personas comparten detalles de sus vidas en las redes sociales, material que está disponible en internet de manera libre. Así que hacer que la inteligencia artificial diga lo que alguien quiera, cualquier cosa, puede ser tan sencillo como escribir un texto y hacer que la computadora lo lea en voz alta.
No solo pueden imitar la voz de un familiar figiendo que fue secuestrado, para obtener dinero del rescate. También puede ser que se haga creer que un hijo o un sobrino sufrió un accidente y necesita dinero para pagar la clínica. En realidad, las estafas son las de siempre. Lo que cambia son las tecnologías para hacerlas más creíbles. Por eso:
Contenido GEC