Los miles de dispositivos y la conectividad de estos a través de internet generan una gran cantidad de datos que su correcto procesamiento puede revertir en un gran beneficio.
La solución para utilizar todos estos datos es desarrollar la tecnología de la Inteligencia Artificial (IA) que junto con la computación cuántica, permitirá potenciar y dinamizar la denominada economía de los datos. Dado que si actualmente la gran mayoría del tratamiento y análisis de los datos tiene lugar en centros de datos y en instalaciones informáticas centralizadas, y en un menor número en dispositivos inteligentes conectados, como robots, automóviles, utensilios domésticos o equipos informáticos cercanos al usuario (“computación de borde”), en unos cinco años esto cambiará de forma significativa.
La IA es una tecnología que aglutina datos y algoritmos, que junto con la capacidad de computación y el volumen de información permite desarrollar en el ámbito económico y social nuevas posibilidades procesando la gran cantidad de información que se genera en el mundo digital. Entre esta nueva utilidad que se le pueda dar al procesamiento de los datos nos encontramos con infinidad de posibilidad, como el diagnóstico de enfermedades en el sector sanitario, el uso del transporte de manera más optimiza y de forma limpia, la mejora en los servicios públicos para los ciudadanos, el desarrollo de la agricultura para economizarla y hacerla más verde, el turismo, la educación, el cambio climático, la producción más económica y sostenible, la ciberseguridad o la investigación tanto científica como de las fuerzas de seguridad, entre otros muchos usos.
Pero como todas las nuevas tecnologías, la IA presenta tantas oportunidades como amenazas, dado que existen desequilibrios en cuanto a su uso y efectos, bien por la diferencia de capacidad de acceso a esta tecnología, más cercana a las grandes empresas frente a las pequeñas y medianas empresas o a los propios usuarios, como por las decisiones que puedan tomarse utilizando determinados datos y algoritmos, que pueden genera inseguridad jurídica, ya sea por los efectos derivados de la utilización de la IA o por los usos malintencionados que se pueda hacer con ella.
Esta inseguridad jurídica en el uso de la IA es lo que ha motivado desde las instituciones Europeas la necesidad de establecer un marco regulador claro, para todos los europeos, que consiga que los sistemas, productos o servicios en los que se utilice la Inteligencia Artificial, generen confianza para los consumidores y seguridad para las empresas, con el fin de que se invierta en ella y se desarrolle de manera generalizada.
En la actualidad quien desarrolla IA está sujeto al cumplimiento de normas relativas a los derechos de los consumidores, a la seguridad y a la responsabilidad sobre los productos y servicios resultantes con esta tecnología. Pero se requiere una reglamentación especifica que mantenga en el mismo nivel de seguridad y respeto de los derechos, tanto para a los usuarios como a los creadores, implantadores y entes que utilicen la IA.
Esta nueva reglamentación que proponen los organismos europeos, pretende evitar la vulneración de la privacidad, proteger el tratamiento de los datos personales o la discriminación. Dado que con el uso de la IA se llega a conocer o descubrir costumbres, hábitos o aspectos de la personalidad de los individuos que pueden desconocer ellos mismos; se recogen o generan datos personales que no han facilitado los propios afectados; o se toman decisiones en base a estos datos y según los algoritmos utilizados, que pueden suponer un perjuicio para la privacidad de las personas, discriminarlas o privarles de sus derechos y libertades.
La Comisión Europea a la hora de establecer las normas que regulen el uso de la IA, pretende que se tenga en cuenta la libertad de uso de esta tecnología, estableciendo una reglamentación en base al riesgo que pueda suponer, para la seguridad de los usuarios y los derechos fundamentales, el utilizar la IA. Para ello se tiene en mente por la Comisión Europea la fijación de cuatro niveles de riesgo a la hora de establecer los requisitos y obligaciones que debe cumplir la IA para su desarrollo y utilización.
En esta clasificación de los cuatro niveles de riesgo se parte, en primer lugar, del riesgo inadmisible, que abarcaría el conjunto de usos de la IA especialmente nocivos para los derechos fundamentales, como son los sistemas que manipulan el comportamiento humano para eludir la voluntad de los usuarios y los sistemas que permitan la puntuación social por los gobiernos. Luego estaría el riesgo alto, donde se incluirá el uso de esta tecnología para determinar el acceso a la educación, para la gestión de los trabajadores y el puesto de trabajo, los de concesión de créditos o préstamos, la evaluación de pruebas en juicios, la autenticidad documental en el control de fronteras o los sistemas de identificación biométrica remota, entre otros. En un tercer nivel de riesgo estarían los sistemas de IA de riesgo limitado, como los robots conversacionales. Y por último los de riesgo mínimo o nulo, como la IA aplicada, por ejemplo, para los videojuegos o sistemas de filtrado de correos basura, que serán la mayoría de los sistemas de IA utilizados.
Pues bien, en cuanto a la primera categoría de los cuatro niveles, los del riesgo inadmisible, estos sistemas de IA estarán prohibidos por la reglamentación que se dicte. Los del segundo nivel, los del riesgo alto, para poder desarrollarlos y comercializarlos se deberán cumplir estrictas obligaciones. Los de riesgo limitado simplemente estarán obligados a cumplir medidas de transparencia para poder llevar a cabo este tipo de IA. Y por último el cuarto nivel, los de riesgo mínimo, la normativa no pretende tenerlos en cuenta.
Sobre las estrictas obligaciones que deberían cumplir los sistemas de IA del segundo nivel, el de alto riesgo, irían dirigidas a establecer sistemas adecuados de evaluación y mitigación de riesgos; a la alta calidad del conjunto de datos que alimenten los algoritmos para minimizar riesgos y discriminación; a llevar a cabo el registro de la actividad para garantizar la trazabilidad de los resultados; a documentar de forma detallada el sistema y su finalidad con el fin de que las autoridades evalúen su conformidad; a facilitar información clara y adecuada al usuario y a que se realice la supervisión humana de los sistemas, entre otras obligaciones estrictas.
En este nivel de alto riesgo, se incluirían también los sistemas de identificación biométrica remota, que a priori estarán prohibidos cuando se usen con fines policiales en espacios de acceso público. Pero se permitirá, con estrictas excepciones, contando con la autorización judicial y limitándose la duración, alcance geográfico y los datos explorados para, por ejemplo, la localización de menores desaparecidos, la prevención de amenazas terroristas concretas e inminentes, o para detectar, localizar, identificar o enjuiciar al autor o sospechoso de un delito grave.
En cuanto a quién tendrá que cumplir esta reglamentación para comercializar o aplicar la IA, dado que hay muchos involucrados en el ciclo de vida de esta tecnología. La deberán cumplir los desarrolladores, que estarán en mejor posición para abordar los riesgos de la fase de desarrollo, también el implantador que deberá hacerse cargo de la fase de puesta en funcionamiento del sistema de IA y por último el usuario final que, aunque con menos peso, también podrá tener implicaciones en cuanto al cumplimiento de esta normativa. En cualquier caso, deberá determinarse quien será el responsable de los daños causados frente a quienes puedan sufrir algún perjuicio. Sin dejar de lado el ámbito geográfico de esta normativa, teniendo en cuenta que puede desarrollarse de forma globalizada sin fronteras. Para lo cual convendrá que todo el que ofrezca algún servicio o producto provisto de IA que afecte a los ciudadanos europeos deberá estar sujeto a esta normativa.
Esta por tanto pendiente la Inteligencia Artificial a que se dictamine la normativa europea que regule su uso, si bien en el ámbito nacional ya se ha dictado alguna norma que afecta a estos sistemas de IA. Como la modificación del Estatuto de los Trabajadores en relación con las plataformas digitales en el ámbito laboral, en donde se establece la obligación para las empresas de informar de los algoritmos utilizados a la hora de tomar decisiones que afecten a las condiciones de trabajo, el acceso o el mantenimiento del empleo o cuando se utilice en la elaboración de perfiles.
Queda por tanto pendiente que el Parlamento Europeo y los Estados miembros adopten estas propuestas de la Comisión Europea, sobre la regulación de la Inteligencia Artificial, con el fin de facilitar su desarrollo y garantizar la confianza de todos en esta nueva tecnología.