INTELIGENCIA ARTIFICIAL Y SOCIEDAD

El pasado diciembre se proclamó que la palabra/concepto más destacado del año fue: “Inteligencia Artificial” (IA).

Sin duda está y estará en los desarrollos tecnológicos, presentes y futuros, así como en los debates sociales sobre la ética, capacidad de dominio y su impacto en la sociedad y la forma de vida.

Definición de Inteligencia Artificial (IA): Es la combinación de algoritmos planteados con el propósito de crear máquinas que presenten las mismas capacidades que el ser humano. Una tecnología que todavía nos resulta lejana y misteriosa, pero que desde hace unos años está presente en nuestro día a día, a todas horas.

Conceptos como metaverso, asistentes virtuales, gestores automáticos, “ChatGPT”, vehículos autónomos, etc, son ejemplos de los temas donde la IA se evidencia o utiliza, que están ya presentes o llegarán en un futuro no muy lejano y que vendrán para quedarse entre nosotros, modificando nuestros usos y costumbres, forma de trabajar, de relacionarlos, etc, en resumen, alterarando nuestra forma de vida.

Hasta 1960 se había producido el cambio del trabajo mecánico con gran ocupación de personas por la mecanización del trabajo de esfuerzo físico, sustituido por máquinas capaces de efectuar los trabajos de operarios, con ahorro de salarios, mayor precisión y capacidad de producción en economías de escala. Sustituyó a mucha mano de obra, aumentando las facturaciones de las empresas manufactureras y sus beneficios.

Con esa revolución quedaron fuera del mercado de trabajo muchas personas con habilidades manuales. Llegaron los despidos y muchas quedaron en paro debiendo reciclarse o ser subsidiadas hasta la jubilación.

En las décadas de los 60’s, 70’s y 80’s, los sistemas informáticos empezaron a “mecanizar” tareas manuales de tipo administrativo y de gestión, contabilidad, facturación, control de almacenes y producción, etc, sustituyendo calculadoras y tabuladoras por ordenadores capaces de sustituir personas de perfil administrativo, reduciendo plantillas de la mayoría de empresas. Reemplazaron y dejaron fuera del mercado laboral buena parte del personal que realizaba tareas repetitivas de oficina.

En los 90’s ya se empezaron a incorporar a los sistemas informáticos algoritmos de tipo decisional, priorizaciones de servicio, control del crédito, alertas de atención en las cifras o valores gestionados por los sistemas, demostrando ser tan o más eficaces que los controles o decisiones de las personas responsables siguiendo reglas predeterminadas. Llegaron los llamados “Sistemas Decisionales” donde residían las reglas de negocio que incluso llegaban a crear algoritmos y reglas técnicas en base a las de negocio. Esto creó también una reducción de los niveles profesionales intermedios que solían tomar las decisiones de este tipo.

En paralelo se empezaron a acumular ingentes cantidades de información en Bases de Datos que podía ser explotada para su análisis y obtención de nichos y oportunidades de negocio y de gestión. Técnicas como la “minería de datos” y “Big Data” y similares se impusieron en grandes corporaciones.

Con la llegada de Internet y el Comercio Electrónico, se integraron todos estos sistemas, uniéndose en cadenas de valor de todo tipo, mecánico, administrativo, de gestión y decisional. Aumentaron las bases de datos y la información disponible para su “explotación”.

Todas estas “capas” de avances en la “mecanización” del trabajo, prácticamente agilizaban y mejoraban tareas con reglas bien definidas y concretas, aplicándolas sin mayor compromiso para las decisiones humanas. Si, sustituían trabajo de personas, pero creaban economías de escala que ayudaban a crear nuevas profesiones con mayor valor añadido que enriquecían a la sociedad en su conjunto.

La Inteligencia Artificial está abordando el siguiente escalón en las tareas y ocupaciones humanas, la gestión de las propias personas, intentando sustituir la propia mente y habilidades cognitivas, con el objetivo de llegar a ser indistinguible, y en bastantes áreas, más potente que la inteligencia humana.

La IA se basa fundamentalmente en utilizar la capacidad de aprendizaje de los sistemas, tomando como base la información disponible en todo tipo de bases de datos y señales complejas llegadas de cualquier tipo de dispositivo próximo o remoto.

Asistentes virtuales (Alexa, etc.) que obedecen nuestras órdenes y buscan la información que se le solicita o se le tiene programada para que la facilite sin ser solicitada, accede a todo tipo de información disponible, aportando valor al usuario, ahorro de tiempo, etc. Estos sistemas ya son “iniciadores” de IA.

Los vehículos autónomos, que pronto serán realidad en nuestras calles y carreteras, tienen que tomar decisiones autónomas que pueden condicionar o crear problemas en su entorno, sometiendo a dificultades las reglas y comportamientos humanos, reacciones en situaciones límite con la frontera de la reacción humana.

Robots y Sistemas de todo tipo, de asistencia personal, de defensa y protección, de sanidad, educación, etc; también y en mayor medida, pondrán en dificultad las reglas humanas, incluso éticas y morales. ¿A quien protegen? ¿De qué les protegen? ¿Con que prioridades? ¿En qué información se basan? Algoritmos internos de esas máquinas o sistemas que pueden contravenir las reglas que nos damos, o priorizar decisiones poco democráticas o interesadas a fines ilícitos o contra el interés general.

Esto está impactando ya ahora, e impactará mucho más en el futuro, en el diseño de los sistemas y, en su conjunto, en la Sociedad.

Un sistema basado en la IA puede interpretar tus gustos y recomendarte una película que no te guste, esto es irrelevante. Pero puede decidir también a quién concede un crédito, a quién envía a prisión, o diferenciar privilegios entre las personas; esto es importante.

La falta de transparencia de los algoritmos, de las reglas predefinidas, la falta de auditoria y control de estos, en manos malintencionadas puede causar gran daño a la humanidad. Reglas tendenciosas o discriminatorias escondidas en algoritmos aparentemente transparentes, creando desconfianza en la Sociedad.

Tal vez debamos repescar reglas que fueron visionadas en el pasado, algunas de ciencia ficción, para el futuro que ya está entre nosotros. Impactando sobre reglas, leyes, usos y costumbres que ni podemos imaginar.

Tres ejemplos (Robot y Sistema son equivalentes):

  • Las famosas Leyes de Robótica de Asimov
  • Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños.
  • Un robot debe obedecer las órdenes que le den los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
  • Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley.

Posteriormente se añadió la Ley 0 (Cero): Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños.

  • Principios de robótica de EPSRC / AHRC
  •     Los robots no deben diseñarse única o principalmente para matar o dañar a los seres humanos.
  •     Los seres humanos, no los robots, son agentes responsables. Los robots son herramientas diseñadas para lograr los objetivos humanos.
  •     Los robots deben diseñarse de manera que garanticen su seguridad y protección.
  •     Los robots son artefactos; no deben diseñarse para explotar a los usuarios vulnerables provocando una respuesta emocional o dependencia. Siempre debería ser posible distinguir un robot de un humano.
  •     Siempre debería ser posible averiguar quién es legalmente responsable de un robot.
  • Leyes de Satya Nadella sobre Inteligencia Artificial
  • “La IA debe estar diseñada para ayudar a la humanidad”, lo que significa que se debe respetar la autonomía humana.
  • “La IA debe ser transparente”, lo que significa que los humanos deben saber y ser capaces de comprender cómo funcionan.
  • “La IA debe maximizar la eficiencia sin destruir la dignidad de las personas”.
  • “La IA debe estar diseñada para una privacidad inteligente”, lo que significa que se gana la confianza al proteger su información.
  • “La IA debe tener una responsabilidad algorítmica para que los humanos puedan deshacer un daño involuntario”.
  • “La IA debe protegerse de los prejuicios” para no discriminar a las personas.

Debemos estar vigilantes como Sociedad y nuestros representantes y entidades de todo tipo: Civiles, Políticas, Empresariales, etc, deben priorizar la definición de nuevas reglas y compromisos para que la irrupción de la IA no represente un impacto negativo en la humanidad.

Ya no nos valdrá la famosa frase: “lo dice el ordenador”, para convencernos de que una decisión o información sea correcta.

Más información : https://es.wikipedia.org/wiki/Leyes_de_la_robótica

Antonio Puparelli

Informàtic i activista social

@apuparelli

Deixa un comentari