28.9 C
Miami
sábado, junio 15, 2024
InicioNoticiasmulta de 6 millones de dólares para consultor acusado de enviar llamadas...

multa de 6 millones de dólares para consultor acusado de enviar llamadas con IA imitando voz de Biden

Relacionados

Biden equilibra la geopolítica con la campaña

Source link LOS ANGELES, EEUU —  Después de volar durante...

Directora del FMI se compromete a apoyar esfuerzo de Milei por estabilizar Argentina

Source link BUENOS AIRES —  La directora gerente del Fondo...

Comité Nacional Republicano emprende iniciativa a gran escala para supervisar las elecciones de EEUU

Source link BLOOMFIELD HILLS, Michigan, EEUU —  El Comité Nacional...

La violencia se ensaña con los departamentos del Cauca y Valle del Cauca 

Source link BOGOTÁ —  Una serie de ataques con explosivos...

Source link

El fiscal general de Nueva Hampshire presentó cargos contra el consultor político que organizó llamadas automáticas con la voz del presidente estadounidense Joe Biden generada con IA antes de las primarias presidenciales, que ahora enfrenta una multa de 6 millones de dólares y varios cargos penales.

La Comisión Federal de Comunicaciones (FCC por sus siglas en inglés) informó que la multa que propuso el jueves para Steven Kramer es la primera que se impone en relación con la tecnología de IA generativa. La empresa acusada de transmitir las llamadas, Lingo Telecom, enfrenta una multa de 2 millones de dólares, aunque en ambos casos las partes podrían llegar a un acuerdo o seguir negociando, dijo la FCC.

Kramer, de 54 años, enfrenta 13 cargos de delitos graves de supresión de votantes y delito menor de suplantación de un candidato después de que miles de residentes de Nueva Hampshire recibieran un mensaje de llamada automática pidiéndoles que no votaran hasta noviembre.

Kramer ha admitido haber orquestado un mensaje que se envió a miles de votantes dos días antes de las primarias del 23 de enero. El mensaje reproducía una voz similar a la del presidente demócrata que utilizaba su característica frase “qué sarta de tonterías” e insinuaba falsamente que votar en las primarias impediría al electorado emitir su voto en las presidenciales.

No fue posible identificar de inmediato a un abogado de Kramer.

En Washington existe una creciente preocupación de que el contenido generado por IA pueda engañar a los votantes en las elecciones presidenciales y del Congreso de noviembre. Algunos senadores quieren aprobar una legislación antes de noviembre que abordaría las amenazas de la IA a la integridad electoral.

«Nueva Hampshire sigue comprometido a garantizar que nuestras elecciones permanezcan libres de interferencias ilegales y nuestra investigación sobre este asunto sigue en curso», dijo el Fiscal General John Formella.

Formella espera que las acciones estatales y federales «envíen una fuerte señal disuasoria a cualquiera que pueda considerar interferir con las elecciones, ya sea mediante el uso de inteligencia artificial o de otro modo».

El miércoles, la presidenta de la FCC, Jessica Rosenworcel, propuso exigir la divulgación del contenido generado por inteligencia artificial (IA) en anuncios políticos en radio y televisión, tanto para anuncios de candidatos como de temas, pero no prohibir ningún contenido generado por IA.

La FCC dijo que se espera que el uso de la IA desempeñe un papel sustancial en los anuncios políticos de 2024. La FCC destacó el potencial de engañosas «falsificaciones profundas», que son «imágenes, videos o grabaciones de audio alterados que muestran a personas haciendo o diciendo cosas que en realidad no hicieron o dijeron, o eventos que en realidad no ocurrieron».

[Con información de Reuters y AP]

¡Conéctate con la Voz de América! Suscríbete a nuestros canales de YouTube, WhatsApp y al newsletter. Activa las notificaciones y síguenos en Facebook, X e Instagram.

Subscribirse a nuestro Boletín

- Obtenga acceso completo a nuestro contenido premium

- No te pierdas nunca una historia con notificaciones activas

Populares

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí