Joaquín Borrego
* Se plantea una revisión de las implicaciones y lo que está suponiendo la
generalización del uso de la Inteligencia Artificial y las Nuevas Tecnologías
en el mundo del trabajo, el mercado laboral y la sociedad en su conjunto, así
como la advertencia desde la comunidad científica para un uso ético.
Introducción
Recientemente
los medios de comunicación y las redes sociales (espoleadas por los primeros)
han inundado el discurso público de expectativas sobre la aplicación masiva de
mecanismos de Inteligencia Artificial, bien en forma física (robots) bien en
forma digital (con tecnologías como Deep Learning y Big Data). Como en otros
casos, dichas expectativas están condicionadas por la percepción que los
creadores/as de contenido de los mass media poseen de la innovación
tecnológica, que suele ser limitada y que mezcla información con opiniones,
matizaciones y subjetividad. Es más, la tentación de ampliar el discurso
atreviéndose a lanzar predicciones y profecías sobre el devenir y aplicaciones
de la tecnología plantea el peligro de moldear una opinión pública en base a
prejuicios y opiniones de legos en la materia que, incluso, llegan a
reinterpretar a su conveniencia las opiniones de las personas expertas.
Este
panorama es esencial para entender cómo las preocupaciones sociales acerca de
los beneficios y peligros de las nuevas tecnologías evolucionan, así como
dichas preocupaciones aterrizan en el discurso político (por la propia dinámica
social). Dando por sentado esta situación, también es cierto que existen
peligros socioeconómicos en la Innovación.
La
preocupación por la pérdida de empleo provocada por la tecnología originó un
conflicto social ya con la primera revolución industrial a principios del s.
XIX, y se acepta que toda innovación tecnológica de gran calado provoca una
fase de desajuste temporal en el mercado de trabajo. Sin embargo, existe otro
problema que no recibe la misma atención, y es la brecha económica entre ricos y
pobres, así como la erosión de la clase media que las tecnologías avanzadas están
provocando. Las innovaciones tecnológicas no son la causa principal, pero la
brecha comienza a ser evidente en algunas actividades económicas, donde con el
engañoso término economía colaborativa esconde una desregularización de las
condiciones de trabajo y servicios (objetivo de Uber o AirBnB). Son plataformas
que, aderezadas con sistemas de IA, hacen difícil competir en precios y calidad
del servicio a los empresarios tradicionales. Silicon Valley capitanea una
nueva generación de startups de economía colaborativa dirigidas a mercados
centralizados o muy regulados (como hoteles o taxis) con el objetivo de
intermediar entre la ciudadanía que se convierten en clientes y proveedores de
servicios, eliminando puestos de trabajo que se sostenían por las limitaciones
de acceso a competidores.
El citado
periodo de desajuste se traduce en un recambio de profesionales donde el valor
de los candidatos se centra en la formación en las nuevas tecnologías. Y este recambio
no sólo ocurre en las áreas tradicionalmente propensas a estos procesos como la
de manufacturación (donde la robótica lleva bastante tiempo ocupando puestos en
fábricas). También afecta de manera creciente a otras actividades como la
contabilidad y gestión en empresas, que son suplantadas por sistemas que funcionan
con la misma eficacia. Son tendencias a largo plazo que hacen desaparecer los
trabajos de “habilidad media” mediante sistemas de Inteligencia Artificial, y
que amenazan empleos de la clase media.
La percepción sobre la Inteligencia Artificial
La
Inteligencia Artificial (IA) no es una excepción. Los productos y servicios
basados en IA viven en este momento una cima de expectativas alentada por los
resultados espectaculares de las nuevas técnicas de aprendizaje automático como
el deep learning. Las consultoras tecnológicas publican informes que conducen
la inversión a las nuevos productos y servicios que aparecen (bien en forma de
nuevas empresas, bien en el nacimiento de start-ups). La percepción de la IA en
el ámbito económico es, pues, como motor de desarrollo y beneficios.
En la
sociedad, sin embargo, existen dos puntos de vista opuestos acerca de la IA: el
que ve la IA como una oportunidad para lanzar innovación y bienestar para el
ser humano (citando avances en Medicina, por ejemplo); y el que ve la IA como
una amenaza real, en forma de pérdida de empleos (“los robots ocupan puestos
humanos”), de sistemas vigilancia basada en datos cuasi-orwellianos, etc.
La
disyuntiva, en realidad, no es tal. El primer punto de vista considera la
tecnología como producto de uso y como un objetivo en sí mismo
(tecno-determinismo acrítico), descargando la responsabilidad en el uso pretendido
(un punto de vista clásico en la Ciencia: los resultados están libres de
ataduras éticas, es su uso el que lo determina). Es decir, se percibe como
positivo la tecnología, pero se obvia su uso. El segundo, sin embargo, alerta
de ciertos casos en los que la tecnología innovadora es resultado de una
política de desarrollo e innovación dirigida a servicios potencialmente
perjudiciales. Que el carácter libre de ética de la tecnología permite su uso espúreo
y dañino. En su libro El desengaño de Internet Evgeny Morozov presenta
un buen puñado de ejemplos de uso de innovaciones tecnosociales que se
convierten en evil. Por ejemplo, la
celebración en Occidente alrededor de Twitter como el social media definitivo, especialmente
como catalizador-conductor de la primavera árabe, cuando, por ejemplo, el
análisis de los datos generados en la plataforma permitió acto seguido al
régimen iraní reprimir a disidentes.
En [Fast
& Horvitz 2016] se establece una serie de “indicadores” que les sirven a
los autores para estimar la esperanza o la preocupación social sobre el desarrollo
de la IA. Los indicadores “positivos” (impacto positivo sobre el trabajo,
educación, movilidad, salud, toma autónoma de decisiones, industria del
entretenimiento, fusión humano-robot en la superación de discapacidades y la Singularidad
como algo positivo) está relacionados con el bienestar común sin implicaciones
económicas directas. Sin embargo, casi todos los indicadores negativos (pérdida
de control, impacto negativo en el trabajo, aplicaciones militares, ausencia de
ética, lento desarrollo de la IA, fusión humano-robot para control y agresión
-cyborgs militares-, y la Singularidad como algo negativo) se centran en los
aspectos económicos y de seguridad (militar y civil). Los autores concluyen
que, en términos globales, la opinión pública se decanta por los aspectos
positivos si se tratan los aspectos de manera global, pero que aparecen serias
preocupaciones cuando se centra en cuestiones específicas donde la ciudadanía
se enfrenta a dilemas concretos. Por ejemplo, aquellos relacionados con la pérdida
del control del sistema inteligente, como pueden ser los coches autónomos o
armas inteligentes. La preocupación está pues, menos relacionada con la
aceptación de la IA como herramienta potencialmente beneficiosa y más con nuestra seguridad y las consecuencias
directas sobre nuestra integridad como homo economicus y como sujeto con
derechos civiles de esa revolución de la IA, que parecía hasta hace poco lejana
y acotada en laboratorios y videojuegos.
Para
entender algunos aspectos del desafío que representa la nueva IA es adecuado
considerar tres niveles distintos de aplicación. El nivel nube (es la IA que se
aplica en servidores sobre grandes cantidades de datos para la toma de
decisiones). El nivel físico está relacionado con la imaginería popular de los
robots y máquinas autónomas. Y finalmente, el nivel híbrido, donde la computación
en la nube provee a las máquinas de inteligencia computacional basada en datos
para la toma de decisiones sobre el terreno.
Nivel nube
Todo el
mundo ha usado (consumido, añadido, interaccionado) servicios a ese nivel nube
y, en mayor o menor grado hemos ayudado a algunos de los grandes sistemas de
IA. Google es uno de los grandes ejemplos. La empresa propietaria del buscador
es una empresa basada en Big Data (almacenamiento, gestión y transformación de
cantidades masivas de datos). Vende datos, produce datos, diseña software que
consume datos y produce otros.
La preocupación
por el cada vez mayor conocimiento que este tipo de empresas posee sobre
nosotros, extraído a partir de datos, y cómo los vende y/o utiliza es lícita y
necesaria. Muchas decisiones en nuestro entorno se están tomando en base a
Aprendizaje Automático y otros sistemas computacionales basados en modelos
matemáticos que no respetan uno de los principios esenciales en ciencia: la
necesidad de un modelo que justifique/explique el resultado o decisión. La
estadística, la veracidad de la correlación, ha sustituido a la construcción
crítica de modelos que expliquen el funcionamiento del sistema o problema
observado incluída la necesidad de establecer causalidad. Y lo ha sustituido
porque funciona. No necesitan los modelos.
La ausencia
de modelos (sociales, económicos, etc.) que expliquen la toma de decisiones es
muy popular en entornos donde se utilizan sistemas de IA denominados opacos (sistemas
que funcionan bien para un problema pero que no podemos explicar por qué razón
ocurre, como las redes neuronales complejas). No conocer el modelo implica que no
conocemos cuáles son las razones fundamentales por las que toma la decisión,
con el peligro potencial que representa (por ejemplo, usando variables
socioeconómicas que conlleven discriminación [Gómez 2017]). El uso de la
correlación como argumento, eligiendo las variables a estudiar entre una amplia
panoplia de éstas, buscando sólo la explicación cuantitativa, es pernicioso si
se olvida el método científico. Y es peligroso porque las grandes corporaciones
recopilan datos de sus usuarios de manera masiva, lo que las coloca en una
situación privilegiada frente al resto de la sociedad. En áreas como finanzas y
seguros las decisiones de este tipo afectan de manera importante al ciudadano,
y las autoridades competentes deberían contemplar la necesidad de auditar esos
métodos. De imponer la transparencia en la toma de decisiones (por ejemplo, que
nos expliquen por qué no nos conceden un crédito de manera argumentativa).
El uso
del Big Data sobre datos personales es un ejemplo de la disyunción antes
aludida. El enorme potencial esperable del tratamiento de información médica es
una esperanza aséptica que en manos de las instituciones es un indicador
positivo, pero sin embargo el tecnocapitalismo puede convertir en producto de
discriminación y beneficio propio. Frente a la detección de soluciones o tratamientos
más eficientes para optimizar recursos de la Sanidad Pública se perfila el
peligro de que la venta de datos (aún anonimizados) a corporaciones farmacéuticas
o de seguros les permita la explotación de nuevos medicamentos o la
discriminación -en base a algoritmos de aprendizaje entrenados con datos
poblacionales significativos- de las tarifas de los seguros y tratamientos médicos
especializados.
En el
fondo, la aplicación de esos modelos opacos esconden otro pecado del sistema
socioeconómico actual: la optimización de decisiones a corto plazo, olvidando
la construcción de modelos que aseguren la sostenibilidad
y
rentabilidad (social, económica o ambas) del sistema. La falta de esa visión a
medio y largo plazo ya la hemos sufrido en campos como el financiero o el
mercado de valores. La eficiencia del mercado (la tesis de que el mercado es el
responsable eficiente para igualar valor y precio) se ha transformado, en esta
era de Data Science, en un desafío computacional sin precedentes en Economía.
Se necesita rapidez en aprehender la información y tomar rápidamente un número
considerable de decisiones de compra/venta de pequeña entidad de acciones que,
en su conjunto, permitan obtener beneficios de consideración. En la actualidad,
los mejores sistemas de Trading están gobernados por IA. Procesan una cantidad
masiva de datos a gran velocidad para tomar rápidamente las decisiones, aprendiendo
a reaccionar a los eventos del mercado para predecir movimientos a corto plazo.
El problema, el gran peligro de este ecosistema, es que la velocidad ha sustituido
a la estrategia en el tiempo: es una conducta cortoplacista, sin planificación
a largo plazo y por tanto no se pueden controlar automáticamente los
desequilibrios artificiales (por ejemplo, burbujas financieras) con impacto
socioeconómico importante.
Nivel físico
El
imaginario popular de la pérdida de empleos provocada por la IA siempre está
asociado a la robotización. Y los nuevos despidos con la construcción de robots
más inteligentes. Es por tanto natural que el nivel físico sea el que ocupe el
primer lugar en las preocupaciones de la clase obrera. Sin embargo, en la
actualidad, ni siquiera los expertos están de acuerdo en cuáles serían qué
tipos de puestos de trabajos serán ocupados por robots. Los investigadores Guy
Michaels y su colega Georg Graetz de la London School of Economics han
realizado un estudio sobre el impacto de la robótica en 17 países en desarrollo
y los resultados no son concluyentes en un sentido u otro. Si bien es evidente
la pérdida de empleo de baja cualificación (por ser tecnológicamente asequible
para los robots), la implantación de la robótica provoca no sólo el aumento de
la productividad, también la creación de nuevos empleos para otros
trabajadores/as. Los citados autores afirman que no existe evidencia de que los
robots reduzcan empleos en términos globales.
Si nos
centramos en la robótica como servicio a la ciudadanía, podemos afirmar que aún
existe mucha distancia entre la robótica actual y la robótica cognitiva que se
necesitaría para muchas labores. Por ejemplo la asistencia integral de la
tercera edad o los dilemas a los que nos enfrentamos con los coches autónomos.
Este último ejemplo es paradigmático, porque muestra a la opinión pública el techo
de cristal que tiene la IA en términos de seguridad. Deja en evidencia ante la
ciudadanía el enorme paso que representa delegar nuestra seguridad en sistemas
autónomos.
Nivel híbrido
Sin
embargo, donde quizás nos encontremos con los mayores peligros a corto plazo
será en la combinación de los niveles antes comentados. Es decir, en sistemas
que aprovechen servicios en la nube para la toma de decisiones en el mundo
real. La potencia de los sistemas en la nube hace que los sistemas físicos no
necesiten gran capacidad cognitiva, siendo de esa forma más factibles. Por
ejemplo, preocupándose de las acciones encaminadas a su persistencia como
sistema y delegando las decisiones estratégicas a servicios en la nube que
serán comunicadas con rapidez.
En 2012
E. Snowden habló de un programa desarrollado por la NSA denominado SKYNET, que
usaba los metadatos de localización de los teléfonos y de sus registros de llamadas
efectuadas/recibidas para detectar patrones sospechosos, ya sea por los
movimientos de los individuos como por sus hábitos de comunicación. Alimentaron
el sistema con datos obtenidos de la red de telefonía móvil de Pakistán para
localizar presuntos terroristas basándose en patrones de movilidad o a quién
llamó esa persona al llegar a su destino, entre otros. También analizaba otros
comportamientos sospechosos como el uso por un individuo de varias tarjetas SIM
o teléfonos o que sólo reciba llamadas entrantes. De esa forma le asignaba una probabilidad
de ser terrorista a cada ciudadano espiado. El programa, calificado de basura
por varios científicos de datos (incorrecto, mal diseñado y con conclusiones no
fundamentadas) sirvió para elegir objetivos para los ataques de los drones
desde 2007. Se estima que los drones han matado entre 2.500 y 4.000 pakistaníes
desde 2004, incluidos falsos positivos (véase [Grothoff & Porup 2016]).
El
ejemplo de SKYNET es muy interesante porque pone de manifiesto la necesidad de
regulación de la IA en cuanto afecta a nuestros derechos fundamentales. Aunque
no es el caso por ahora, sí es factible que se fabriquen de manera barata
sistemas de IA que sean fácilmente transformables en máquinas de guerra, y que
incluso posean una gran autonomía. Las previsiones sobre el uso bélico de este
tipo de tecnologías son, a nuestro parecer, más realistas que el propio uso de
armas nucleares, e incluso más devastadoras que éstas. La comunidad internacional
debe de ser consciente de la necesidad de regular el uso de estas tecnologías,
como lo es para la nuclear. Y comienza a ser perentorio, porque es mucho más
sencillo reutilizar un sistema de IA con fines militares que un reactor
nuclear. La sociedad científica sí es consciente de esta necesidad, y ya se
están proponiendo normas encaminadas a este control.
Sociedad postlaboral
Como ya
comentamos, el miedo ante la automatización no nos es nuevo. La primera
revolución industrial provocó la irrupción de un fuerte rechazo a las máquinas
como sustitutas de la mano de obra. La alfabetización industrial del siglo XIX
consiguió desligar la innovación en maquinaria de la pérdida de empleo y se
asoció al bienestar social y económico. El ludismo como reacción a la innovación
industrial siempre ha estado latente desde aquella revolución, y como hemos
comentado anteriormente, las proféticas “noticias” lanzadas desde los medios de
comunicación han espoleado su resurgimiento.
Sin
embargo -al menos en el mundo occidental- se está produciendo también un debate
esencialmente distinto al de resignarse al neoludismo como única opción al
fenómeno de la sustitución de la mano de obra mediante tecnología (incluída la
IA). Recordando la historia, el ludismo tuvo su origen tanto en la destrucción de
empleo como en el descontento con las condiciones de trabajo en las fábricas.
Salvando las distancias, nos enfrentamos a una situación similar en la
actualidad. Uno de los efectos de la crisis ha sido un empeoramiento de las
condiciones de trabajo que provoca animadversión a competidores mecánicos que
podrían empeorarlas todavía más. La mejor forma de prevenir este conflicto es
atacar de raíz esta causa, que está relacionada con la calidad de vida.
Al menos
dos iniciativas que, complementariamente, intentan desvincular efectivamente,
el trabajo de los salarios, se han puesto sobre la mesa de políticos e intelectuales.
La primera es la implantación de una renta básica universal que permitiría
desvincular, al menos en parte, la necesidad de subsistencia del empleo. La segunda
plantea establecer impuestos sobre los robots con cierta capacidad inteligente,
gravando su uso para beneficio social. Ambas iniciativas están en fase de discusión
y experimentación, pero su verdadero desafío llegará cuando los sistemas de IA
sean capaces de trabajar en actividades económicas asociadas a la clase media,
profesiones liberales y, en general, aquellas que requieren de formación
superior: en la justicia, medicina, etc. Es en este tipo de innovación en la
que nos enfrentaremos a un dilema: la creación de nuevo conocimiento dependerá
de la vocación de estudiantes que, a la vez, se enfrentarán a
un futuro
incierto cuando acaben sus estudios porque el conocimiento se implementará en
máquinas.
Conclusiones
¿Qué
puede hacer la sociedad ante este avance tecnológico, que parece imparable?
Crear normas de uso de la AI, como por ejemplo los principios de ASILOMAR
https://futureoflife.org/ai-principles. Son 23 principios que intentan acotar
los objetivos y el ámbito de actuación y de uso de la IA. Están encaminados a
que la IA sea considerada como un beneficio para la humanidad en su conjunto y la
supeditación de ésta al arbitrio humano y de acuerdo a principios éticos. Es un
ejemplo de cómo la comunidad científica advierte del futuro que nos viene, y
cómo intenta alertar y aconsejar a los poderes políticos sobre el uso de la
nueva IA.
Bibliografía
[Fast & Horvitz 2016] Ethan Fast, Eric
Horvitz Long-Term Trends in the Public Perception of Artificial Intelligence,
https://arxiv.org/abs/1609.04904
[Gómez
2017] David Gómez-Ullate, La otra cara del Big Data, http://elpais.
com/elpais/2017/01/17/ciencia/1484670954_785850.html
[Grothoff & Porup 2016] Christian
Grothoff & J.M. Porup, The NSA’s SKYNET program may be killing thousands of
innocent people, http://arstechnica.co.uk/security/2016/02/the-nsas-skynet-program-may-be-killing-thousands-of-innocent-people/
[Morozov
2012] Evgeny Morozov, El desengaño de internet, Destino, 2012.
[Artículo
publicado originalmente en la revista Libre
Pensamiento # 89, Madrid, invierno 2017. Número completo accesible en http://librepensamiento.org/wp-content/uploads/2017/05/LP-89.pdf.]
No hay comentarios:
Publicar un comentario
Nos interesa el debate, la confrontación de ideas y el disenso. Pero si tu comentario es sólo para descalificaciones sin argumentos, o mentiras falaces, no será publicado. Hay muchos sitios del gobierno venezolano donde gustosa y rápidamente publican ese tipo de comunicaciones.