En CEDRO utilizamos cookies propias y de terceros. En concreto, utilizamos cookies técnicas que garantizan el correcto funcionamiento del sitio web, como poder gestionar adecuadamente las sesiones; y cookies analíticas que, de aceptarlas,
analizarán sus hábitos de navegación, así como el uso del sitio web en general para recopilar estadísticas que permitirán la mejora de nuestros servicios y mostrarle contenido útil. Al hacer clic en “Aceptar”, usted acepta todas las cookies del sitio web. Por otro lado, usted puede rechazar el uso de cookies, o bien cambiar su configuración y aceptar el tipo de cookies que se instalarán en su navegador
siempre que lo desee, si hace clic en “Configurar las cookies”, sin perjuicio de que existen cookies de obligatoria aceptación, debido a que son necesarias para el correcto funcionamiento del Sitio Web de CEDRO. Dispone de más información en nuestra Política de cookies.
Estas cookies son necesarias para garantizar el funcionamiento de la web, garantizando, entre otras funcionalidades, al acceso a áreas seguras, o el control de las cookies que ha aceptado.
Estas cookies son aquellas que, tratadas por nosotros o por terceros, nos permiten, entre otras funcionalidades, realizar la medición y análisis estadístico de la utilización que hacen los usuarios de nuestro sitio web. Para
ello, se analiza sus hábitos de navegación en nuestro sitio web con el fin de optimizar el servicio ofertado, así como para proporcionarle mejores contenidos y gestionar adecuadamente las sesiones con el fin de recordarle
al iniciar sesión. Estas estadísticas se hacen de forma agregada y no individualizada. Estas llamadas "cookies de análisis" no se eliminan automáticamente cuando usted sale de nuestro sitio web. Sólo se almacenarán
si usted las acepta y tienen una duración máxima de 24 meses.
Estas cookies ofrecen la posibilidad de conectarse a las mismas y compartir contenidos con los usuarios de las redes y obtener información sobre el uso que haces de nuestras cuentas en redes sociales.
Por un lado, los países del G7 —Estados Unidos, Japón, Alemania, Reino Unido, Francia, Italia y Canadá— acordaron un código de adhesión voluntaria que ofrece a
las empresas tecnológicas que desarrollan sistemas de IA un marco con principios y recomendaciones para que creen herramientas que garanticen un uso responsable y seguro.
En este acuerdo, pidieron que las empresas tomen medidas para mitigar los riesgos que deriven del uso de estas herramientas. Por ejemplo, que los sistemas de IA tengan en cuenta la protección de la propiedad intelectual, a través de mecanismos de transparencia y salvaguardando el derecho de autor. Asimismo, deben promover la distinción entre aquellos contenidos que han sido creados por IA de aquellos que han sido elaborados por inteligencia humana.
Además, con el objetivo de reducir los riesgos derivados del uso de la IA propusieron distintas medidas. Por ejemplo, la protección de datos u otras iniciativas para mejorar su transparencia, a través de la comunicación pública sobre sus capacidades, del intercambio de información con distintos interlocutores —industria, gobierno, sociedad civil y mundo académico—, de la autentificación o verificación de los contenidos que utilizan y de su procedencia, etc.
Días más tarde, 29 países —entre los que figura España, Estados Unidos, China y otros países de la Unión Europea, entre otros— se reunieron en la Cumbre de Seguridad sobre la IA, que aprobó la Declaración de Bletchley, un documento que recoge el compromiso de estos países para cooperar en el desarrollo de una IA «segura, centrada en el ser humano, confiable y responsable». En los próximos meses, estos países trabajarán conjuntamente en dos objetivos: identificar los riesgos de estas herramientas y construir políticas que protejan a los ciudadanos de estos peligros.
Al margen del acuerdo adoptado por los países del G7, EE. UU. emitió una orden ejecutiva para regular de facto el desarrollo de los sistemas de IA, aumentar la seguridad del país ante los posibles riesgos que pueden provocar estos sistemas —por ejemplo, la adicción a las redes sociales o la desinformación, entre otros— y promover la creación de herramientas «seguras y de confianza».
Como consecuencia de esta orden ejecutiva, el Centro Nacional de Coordinación de Derechos de Propiedad Intelectual propondrá en los próximos meses al gobierno estadounidense algunas recomendaciones para reducir los riesgos de la IA en el ámbito de los derechos de propiedad intelectual.
EE. UU. también empezará a trabajar en el desarrollo de unos estándares de etiquetado para contenidos generados con IA, con el objetivo de distinguirlos de aquellos que han sido creados por humanos, para combatir la desinformación.
En cualquier caso, esta orden no afectará a la futura regulación europea sobre propiedad intelectual, sobre la que ya están trabajando el Parlamento Europeo, el Consejo Europeo y la Comisión.
2024 © Centro Español de Derechos Reprográficos