Noticia ampliada Share

PROSEGUR REFUERZA SU COMPROMISO CON EL USO ÉTICO Y RESPONSABLE DE LA INTELIGENCIA ARTIFICIAL.

Dentro del interés de la compañía por mantenerse a la vanguardia de la innovación y seguir incorporando tecnologías punteras en los productos y servicios, Prosegur ha establecido los pilares fundamentales que regirán su política de IA: licitud, ética y robustez.
  • Foto PROSEGUR REFUERZA SU COMPROMISO CON EL USO ÉTICO Y RESPONSABLE DE LA INTELIGENCIA ARTIFICIAL.
Para prevenir los potenciales riesgos que pueden impactar en las personas y las empresas, la compañía ha incorporado desde 2022 su Política de Inteligencia Artificial Responsable, una norma de alcance global que determina los principios, requisitos de evaluación y metodología para aplicar una IA responsable.

Madrid, 6 de febrero de 2024. Prosegur, grupo líder en seguridad en España, ha dado un paso más en su propósito de cuidar a las personas y las empresas, publicando la primera Política de Inteligencia Artificial Responsable aplicable a todos los países en los que opera. Su objetivo es garantizar los derechos y las libertades de todas las personas que pudieran verse afectadas por el uso de soluciones y tecnologías de Inteligencia Artificial, además de establecer las bases que regirán su aplicación en todos los proyectos que la incorporen. De esta manera, la compañía pone de manifiesto su interés en continuar utilizando la tecnología más puntera en todos sus productos y servicios, manteniéndose a la vanguardia de la innovación.

“Aunque la aplicación de la Inteligencia Artificial (IA) conlleva grandes beneficios, también debemos prevenir sus riesgos”, explica Miguel Soler, Presidente del Comité de IA Responsable y Director Legal y Cumplimiento del Grupo Prosegur. Esta capacidad de las máquinas para usar algoritmos, aprender de los datos y utilizar los conocimientos emulando al cerebro humano ha adquirido una gran importancia en los últimos tiempos, y cada vez son más los usos en los que se emplea. Sin embargo, al ser una tecnología tan potente en todos los sentidos, también conlleva una gran responsabilidad en cuanto a su aplicación y seguimiento.

Para prevenir y controlar esos posibles riesgos, desde Prosegur se ha instaurado un procedimiento que establece que la IA desarrollada o adquirida por la compañía debe seguir tres pilares y, por lo tanto, definirse como: lícita (con el objetivo de garantizar el respeto de todas las leyes y reglamentos aplicables), ética (para asegurar el cumplimiento de los principios y valores éticos) y robusta (tanto desde el punto de vista técnico como social, ya que los sistemas de IA pueden provocar daños accidentales).

“El uso de la Inteligencia Artificial está creciendo día a día, y de manera especial en la parte de soluciones de vídeo analítica, tal y como hemos podido detectar en Prosegur. Con esta nueva política de uso responsable de la IA queremos sumarnos a otras grandes compañías que ubican a la tecnología en el centro de sus operaciones, pero pretendemos hacerlo de una manera ética, lícita y robusta, como indica nuestra normativa”, declara Soler.

Principios éticos, requisitos clave y metodología

Para la elaboración de esta política, se han tomado como referencia los principios éticos recogidos por la Comisión Europea, con los que se pretende mejorar el bienestar individual y colectivo y que deben estar presentes en todos los proyectos de IA de Prosegur. Estos principios son, por un lado, el respeto a la autonomía humana y la garantía de que se realizará un control sobre los procesos de trabajo de los sistemas de IA para potenciar y complementar las aptitudes de las personas. Otro de los principios será la prevención del daño, con el que se garantiza que los sistemas de IA no perjudicarán a nadie ya que serán lo suficientemente seguros y robustos desde un punto de vista técnico. Asimismo, resaltan el principio de equidad para garantizar una distribución justa e igualitaria de sus beneficios y costes y la posibilidad de oponerse a las decisiones adoptadas por los sistemas de IA. Y, por último, destaca el principio de explicabilidad, que implica que todos los procesos de desarrollo de IA sean transparentes y se comunican de manera clara.

También se han pautado una serie de requisitos para garantizar que se trata de un sistema de Inteligencia Artificial Responsable, aplicables durante todo el ciclo de vida de estos procesos. En este sentido, debe activarse la supervisión humana para garantizar que los procesos sean seguros y se basen en una técnica sólida. Además, la gestión de los datos debe ser sólida para poder prevenir el daño a la privacidad, siendo un sistema transparente y que garantice la inclusión, la diversidad y la igualdad de acceso, además del bienestar ambiental y social. Por último, también será relevante la responsabilidad y rendición de cuentas sobre los sistemas de IA y sus resultados.

Por otro lado, la compañía también ha elaborado una metodología específica para aplicar esta política, diseñada de una manera muy pormenorizada. En primer lugar, el responsable de proyecto expondrá el modelo de negocio y la finalidad de la solución presentada. Posteriormente, el Comité de Inteligencia Artificial supervisará y garantizará el cumplimiento de la solución de IA y definirá los requisitos que se van a evaluar. Contando con la aprobación del comité, el desarrollador de IA diseñará, implementará y probará la solución y, por último, el operador de Inteligencia Artificial ejecutará y supervisará la solución.

De esta manera, se podrá defender el propósito de respetar los valores éticos y morales y garantizar el complimiento de las normas, promoviendo la utilización de la tecnología mediante el desarrollo y la adquisición de soluciones de Inteligencia Artificial.
logo Sumindustria

SumIndustria le informa

Responsable ZOOM PUBLICIDAD Y COMUNICACIÓN, S.L.
N.I.F. B-86681756
C/ Luis de Hoyos Sainz nº174, Oficina 13
28030 – Madrid
Teléfono: +34 91 772 72 10
Correo electrónico de contacto en materia de datos personales: protecciondedatos@sumindustria.es
Finalidad Sus datos personales serán tratados con la finalidad de gestionar las consultas y sugerencias realizadas, contactando para ello con el usuario a través de los medios indicados en la solicitud. La información requerida es imprescindible para atender su consulta.
En su caso y si el usuario ha prestado su consentimiento expresamente mediante la cumplimentación de la casilla correspondiente, los datos personales serán tratados con la finalidad de remitirle, por cualquier medio, comunicaciones comerciales relativas a ofertas y promociones de los productos y servicios de la empresa.
Legitimación La base jurídica para el tratamiento de sus datos personales es su consentimiento al rellenar y enviar el formulario correspondiente.
Destinatarios No se ceden datos personales a terceros salvo obligación legal.
Derechos Le informamos de que puede ejercitar gratuitamente sus Derechos de Acceso, Rectificación, Supresión, Oposición y Limitación al tratamiento de sus datos, así como a la portabilidad de los mismos y a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles. Si usted desea ejercitar cualquiera de los derechos enunciados anteriormente, por favor, póngase en contacto con nosotros a través del siguiente correo electrónico:
protecciondedatos@sumindustria.es
Si desea más información sobre nuestra Política de Privacidad, consulte el siguiente enlace pulsando aquí