Fabricado en Palencia, puede equipar el sistema de cuatro ruedas directrices y 32 ayudas a la conducción de última generación
El alto comisionado de ONU advierte sobre los peligros de la IA para los derechos humanos
Avisa de falsificaciones y campañas de desinformación que pueden condicionar procesos electorales
El alto comisionado de la ONU para los derechos humanos, Volker Türk, subrayó que la inteligencia artificial, además de ofrecer grandes oportunidades de progreso al ser humano, esconde riesgos "que pueden minar la dignidad y los derechos humanos", por lo que pidió una adecuada regulación global.
"Es crucial que los derechos humanos estén en el centro del desarrollo de las tecnologías de IA", indicó Türk en una reunión sobre inteligencia artificial generativa y libertades fundamentales celebrada en Ginebra, recoge EFE.
"Necesitamos que todos los Estados protejan a los individuos de los posibles abusos de derechos humanos causados por la IA", afirmó el alto comisionado, quien también pidió a las corporaciones que desarrollan esta tecnología garantizar que algoritmos, procesos operacionales y modelos de negocio respeten libertades fundamentales.
Türk recordó los potenciales peligros que la inteligencia artificial puede causar en procesos electorales, a través de falsificaciones de alta calidad, campañas de desinformación y otros métodos.
Ello es especialmente sensible a las puertas de un año 2024 en el que se celebrarán unas 70 elecciones en todo el mundo, llamando a votar a países en los que vive cerca de la mitad de la población mundial, subrayó el alto comisionado austríaco.
En el Día Mundial del Autismo, repasamos con sus padres cómo es el día a día de un niño con necesidades especiales que necesita muchos cuidados. "Hace falta más visibilidad y más inclusión"
La Fundación Affinity calcula que hay unos 85.000 animales en los refugios esperando a que los adopten
Alcanzó la popularidad tras meterse en la piel del cantante Jim Morrison o del superhéroe Batman, y actuar en películas como 'Top Gun' o 'Tombstone'
