La Inteligencia Artificial aplicada a la Discapacidad como ejemplo de su control

Se han publicado muchos artículos, documentos, informes, etc, sobre lo que se ha definido como Inteligencia Artificial, pero no hay mucha literatura sobre su gestión y control.

En este Átomo intento hacer una aproximación en entornos de asistencia y ayuda a las personas con Discapacidad, para focalizar los aspectos de seguridad en un colectivo sensible y que podemos tomar como ejemplo y base para elevarlo posteriormente al propósito general.

Legislación existente:

En la UE en 2024 se desarrolló la llamada “Ley de Inteligencia Artificial de la UE” (https://ai-eu-act.eu/es/) Esta ley y su reglamento (https://www.lenguajejuridico.com/textos-legales/normativa-union-europea/reglamento-inteligencia-artificial-ria/) no requieren trasposición a la legislación de los Estados miembros y se debe aplicar con los plazos y decisiones que se recogen en ella. Algunos temas ya están vigentes y deben aplicarse desde 2025, otros en este año 2026 y el resto hasta 2027 que se debe completar su despliegue y aplicación.

España es el primer país de la UE que ha desarrollado su aplicación, a través de la AESIA Agencia Española de Supervisión de la Inteligencia Artificial: (https://aesia.digital.gob.es/es) quien supervisa y controla que se aplique correctamente a través de los mecanismos previstos en la Ley de IA.

Esta ley se basa en la gestión de los Riesgos de la aplicación de dichos sistemas (sean de bits -ordenadores- o de “átomos” -robots o sistemas con actuación física, controlados por sistemas o componentes electrónicos-). Aquí se definen estos Riesgos: (https://aesia.digital.gob.es/es/actualidad/recursos/ria-aproximacion-general ).

Los Riesgos, agrupados en 4 niveles:

O1 Sistemas prohibidos:   Sistemas de IA considerados como una amenaza para la seguridad de las personas,  sus derechos o sus medios de subsistencia. Ejemplo: manipulación cognitiva conductual.  
O2 Alto riesgo:   Sistemas de IA que tendrán que cumplir obligaciones y requisitos estrictos para 
acceder al mercado de la Unión Europea. Ejemplo: conducción autónoma  
O3 Riesgo limitado:   Sistemas de IA permitidos, pero han de cumplir ciertas obligaciones de transparencia para que los usuarios sepan que interactúan con una IA. Ejemplo: chatbot.   O4 Riesgo mínimo:   Sistemas de IA con un riesgo mínimo (la gran mayoría) que no se regulan y estarán disponibles como hasta ahora. Ejemplo: videojuegos.    

Decreto: “D:\Sociales\ClubCortum\Atoms\Reglamento-de-Inteligencia-Artificial-RIA.pdf”

Dentro del “REGLAMENTO (UE) 2024/1689 DEL PARLAMENTO EUROPEO Y DEL CONSEJO de 13 de junio de 2024” señala lo siguiente sobre el colectivo de las personas con Discapacidad:

“Como signatarios de la Convención sobre los Derechos de las Personas con Discapacidad, la Unión y todos los Estados miembros están legalmente obligados a proteger a las personas con discapacidad contra la discriminación y a promover su igualdad, a garantizar que las personas con discapacidad tengan acceso, en igualdad de condiciones con las demás, a las tecnologías y sistemas de la información y las comunicaciones, y a garantizar el respeto a la intimidad de las personas con discapacidad. Habida cuenta de la importancia y el uso crecientes de los sistemas de IA, la aplicación de los principios de diseño universal a todas las nuevas tecnologías y servicios debe garantizar el acceso pleno e igualitario de todas las personas a las que puedan afectar las tecnologías de IA o que puedan utilizar dichas tecnologías, incluidas las personas con discapacidad, de forma que se tenga plenamente en cuenta su dignidad y diversidad inherentes. Por ello es esencial que los proveedores garanticen el pleno cumplimiento de los requisitos de accesibilidad, incluidas la Directiva (UE) 2016/2102 del Parlamento Europeo y del Consejo (38) y la Directiva (UE) 2019/882. Los proveedores deben garantizar el cumplimiento de estos requisitos desde el diseño. Por consiguiente, las medidas necesarias deben integrarse en la medida de lo posible en el diseño de los sistemas de IA.”

Lógicamente, esto incluye a todos los colectivos especialmente protegidos por las leyes y directivas vigentes en la UE, sin discriminación y garantizando los derechos fundamentales de los mismos, sea por raza, sexo, edad, religión, discapacidad, etc.

¿Cómo podemos proteger, por ejemplo, la seguridad y protección de las personas con Discapacidad ante Robots o sistemas con actuación física (y, por extensión, a la seguridad y protección ante todo tipo de sistemas, físicos o digitales, con componentes de IA presentes en los mismos)?

Como base de razonamiento podemos tomar las conocidas “tres leyes de la robótica” desarrolladas y analizadas en sus obras por Isaac Asimov, que dicen así:

1) Un robot no puede hacer herir a un ser humano ni dejar de intervenir si este está en peligro de sufrir algún daño.

2) Un robot debe obedecer las órdenes de los seres humanos, salvo cuando éstas contradigan la primera ley.

3) Un robot debe proteger su propia existencia, siempre y cuando dicha protección no contradiga las leyes primera o segunda.

Obviamente debe entenderse el concepto de “herir a un ser humano” a poner en peligro su vida, su salud mental y física, su integridad moral y derechos humanos y sociales, etc. Y por extensión, también hacia el resto de los seres vivos.

Estos principios deben estar embebidos en TODOS los sistemas con componentes de IA, de manera proporcional al tipo de sistema. También se deben garantizar los derechos comunes de las personas, protegidos por las leyes que tenemos. Esto debe ser especialmente relevante, evidente y auditable, en los sistemas de IA de Alto Riesgo y Riesgo Limitado. Debe ser demostrable de manera especial, en el caso de sistemas físicos y de soporte a personas con Discapacidad, sea física, orgánica, sensorial o intelectual.

Las auditorias de estos sistemas deben ser similares a las auditorias contables, administrativas o de seguridad, con entidades certificadoras ante las autoridades que correspondan, para demostrar el correcto comportamiento y responsabilidad de los sistemas de IA. Ya se recogen estos principios en el reglamento emitido por la UE.

En los desarrollos de sistemas de cualquier tipo que automaticen algún proceso, sea físico o digital, hay una máxima en cuanto al esfuerzo para su desarrollo e implantación: “todo sistema automatizado dobla el esfuerzo y coste para garantizar y demostrar el correcto funcionamiento”. En lo que nos ocupa sin duda deben dedicarse importantes esfuerzos económicos y de recursos para garantizar los principios de la Ley de Inteligencia Artificial de la UE.

Parece razonable también que los colectivos sensibles a las potencialidades “no deseadas” de la IA sean invitados y participen en el diseño y evaluación de estos sistemas, en este caso, los colectivos de personas con Discapacidad.

La IA puede sin duda ofrecer beneficios a estos colectivos pero su desarrollo ha de ser garante del cumplimiento de las leyes, en especial esta.

En la UE estamos protegidos por esta Ley pionera, hagámosla valer en todos los ámbitos. El ejemplo tomado en este Átomo debe servir para que extendamos estos conceptos a todos los sistemas con elementos de IA, de propósito específico o general.

Antonio Puparelli

Informático y Activista Social

Mayo 2026

Enlaces:

Aproximación general a la Ley de IA:

Ley de la IA de la UE: https://ai-eu-act.eu/es/

Explorador de la Ley de IA de la UE: https://artificialintelligenceact.eu/es/ai-act-explorer/

Agencia Española de Supervisión de la Inteligencia Artificial (AESIA):

Reglamento de la Ley de IA (pdf): https://www.lenguajejuridico.com/wp-content/uploads/2025/03/Reglamento-de-Inteligencia-Artificial-RIA.pdf

Deixa un comentari