Campus logo

Los riesgos de la inteligencia artificial, una tecnología en auge

27 de Enero de 2015
Los riesgos de la inteligencia artificial son todavía desconocidos. Se trata de riesgos tecnológicos, pero también humanos
La inteligencia artificial ha tomado los titulares hace poco de manera espectacular. Multitud de medios reprodujeron las declaraciones de Stephen Hawking diciendo que “la inteligencia artificial podría ser el fin de la raza humana”. Ahí es nada. Elon Musk, el creador de los coches eléctricos Tesla, también añadió su granito de arena al afirmar que “la Inteligencia Artificial es nuestro mayor reto existencial”. Un futuro de miedo y miedo al futuro.

La Inteligencia Artificial es una tecnología revolucionaria capaz de cambiar el mundo, pero no está exenta de riesgos. Riesgos que son tecnológicos pero afectan a la sociedad en su conjunto. Los pánicos y miedos más profundos quizá estén detrás de los anhelos de Raymond Kurzweil. Quiere evitar su propia mortalidad, “cargando” su mente como software en una futura máquina superinteligentge.

Los riesgos de la inteligencia artificial

Sería un capricho pasajero si Kurzweil no fuera quien es. Hipercreativo, inventor prolífico y multimillonario, Kurzweil es también un gran comunicador. Agitó las aguas con su idea de que “La singularidad está cerca”. Esto es, el momento en que surja una inteligencia maquinal muy superior a la humana. Según él, esto sucederá antes de 2030.

Brillantes predicciones que nos deslumbran. Llegamos a creer que son las luces de un enorme camión que avanza directo hacia a nosotros. Sólo falta que la narrativa literaria o cinematográfica remache estos escenarios. Skynet y su Terminator son ya parte de la colección de concepciones populares sobre la Inteligencia Artificial.

También resulta que el meme de la singularidad tiene voceros más o menos cualificados con gran audiencia. El futurólogo Paul Saffo, desde su despacho de la Singularity University (fundada por Kurzweil, por cierto) afirmaba que “cualquiera que diga que las máquinas ‘no pueden hacer tal cosa’ se va a arrepentir”. Es bien cierto que abundan los ejemplos de inteligencia artificial superior a la humana. De momento, sin embargo, son inteligencias restringidas a tareas bastante concretas. Que sean tan espectaculares como ganar a Kasparov al ajedrez o vencer en el concurso de Jeopardy no deja de remarcar su especialización.

El auge de la inteligencia artificial

¿Por qué, pues, tanto ruido? La Inteligencia Artificial, a pesar de sus limitaciones, también resulta ser la inversión “trendy” para el 2015 en Silicon Valley.  Amazon, Facebook, Google, Apple y otros grandes han adquirido muchas pequeñas start ups que desarrollan técnicas de inteligencia artificial, desde el reconocimiento de caras en fotos hasta modelos cognitivos completos de la inteligencia humana.

Estamos, pues, en una múltiple encrucijada. Posibilidades técnicas, talento aplicado, dinero y retornos de inversión que se anticipan como muy jugosos que disponen de todas las herramientas de marketing y comunicación para hacerse notar. La tormenta perfecta.

El auge y comercialización de la inteligencia artificial significa la consolidación de otra tecnología de riesgo. El recientemente fallecido Ulrich Beck propuso que las tecnologías eran “marca de fábrica” de las sociedades de riesgo. Las sociedades modernas son “sociedades de riesgo”. Se caracterizan por la gestión de los nuevos riesgos tecnológicos, los creados por las tecnologías. A su vez, estas son resultado y motor del proceso de modernización, según Beck.

Buscando soluciones escalables de largo impacto

Se pueden gestionar esos riesgos tecnológicos de muchas maneras.  La concienciación de los propios tecnólogos es una de ellas. El citado Elon Musk donó 100 millones de dólares para el Future of Life Institute. Al igual que el Institute for Ethics and Emerging Technologies, es una institución que vela por el desarrollo ético de las tecnologías, la Inteligencia Artificial entre ellas. La comunidad de investigadores en Inteligencia Artificial, ha promovido la “Carta Abierta sobre las prioridades de investigación para una inteligencia artificial robusta y beneficiosa”. La han firmado multitud de académicos y profesionales de la inteligencia artificial de todo el mundo.

Ramon López de Mántaras, firmante de ese documento y uno de mis primeros tutores de investigación en Inteligencia Artificial resumía no hace mucho el estado de cosas en que estamos «creo que se irá acortando la distancia entre nuestra inteligencia natural y la inteligencia artificial porque, por un lado, vamos dotando a las máquinas de algunos aspectos de sentido común, y por otro, me temo, la humanidad está perdiendo el sentido común”.

¿Podría la ética mitigar los riesgos de la inteligencia artificial?

¿Resuelve la concienciación ética de los investigadores el problema de los riesgos tecnológicos de la inteligencia artificial? ¿Cómo se ha convertido en una tecnología de riesgo? Ahora mismo ya tenemos multitud de pequeñas y limitadas inteligencias artificiales poco brillantes pero muy efectivas. Deciden qué libro nos gustará, qué descuento aplicarnos en nuestro próximo viaje, cómo pujar en una subasta, qué acciones de bolsa vender, qué aspersor activar en una explotación agrícola, cómo controlar las depuradoras de toda una cuenca hidrográfica y muchas más cosas. A este magma de semiinteligencias es lo que he llamado en otros lugares “inteligencia artificial gris”.

Creo que el riesgo está en que no sabemos bien cómo interaccionan estos sistemas inteligentes simples cuando están conectados entre sí. Parecen haberse convertido en una nueva clase de “algoritmos de caja negra”. Esto es, algoritmos que funcionan por ahí pero que ya no entendemos. Algoritmos que desconocemos y otros que, aún conociéndolos, no sabemos controlar su efecto agregado cuando interactúan con otros algortimos inteligentes. Por ejemplo, nadie sabe aún qué causó el “flash crash de las 2:45 pm” de la bolsa americana en 2010 que volatilizó el 9% del mercado.

La ciencia de lo artificial

Necesitamos una nueva “Ciencia de lo artificial”, más allá de la que propuso en su día Herbert Simon.  Hay que entender las leyes de funcionamiento de estos ecosistemas artificiales de manera similar a cómo la ecología nos ayuda a confrontar los riesgos tecnológicos de los sistemas naturales. Sin este saber, es más posible que, más que una inteligencia superior, sea una “estupidez combinada y emergente” la que provoque los cataclismos con los que nos asustan tan reputados y célebres personajes.

Investigar las limitaciones éticas del diseño de sistemas inteligentes es un paso. Ahí están las publicaciones sobre “Ética para robots”, por ejemplo. Pero no es suficiente. Si estamos ya rodeados de una “sociedad de agentes artificiales”, hay que pensar también en cómo se regulan de manera ética las relaciones sociales entre sistemas inteligentes y entre sistemas inteligentes y nosotros.

No es nada fácil saber cuál es la decisión éticamente correcta de manera global en un sistema formado por miles o millones de pedazos de software inteligente. Un problema que replica en la tecnología, uno de los dilemas clásicos de la convivencia humana en sociedad.

ACERCA DEL AUTOR

Ramon Sangüesa
Fundador del Equipo Cafeína. Experto en programas de investigación en TIC, comunicación y arte. Coordina el Data Transparency Lab, iniciativa conjunta de MIT, Open Data Institute, Mozilla Foundation y Telefónica I+D.