Firmas

Fundación Aquae > Blog > Firmas > La naturaleza de lo artificial y sus riesgos

La naturaleza de lo artificial y sus riesgos

27/01/2015 - Blog - Ramon Sangüesa
Compartir en

La inteligencia artificial ha tomado los titulares hace poco de manera espectacular. Multitud de medios reprodujeron las declaraciones de Stephen Hawking diciendo que “la inteligencia artificial podría ser el fin de la raza humana”. Ahí es nada. Elon Musk, el creador de los coches eléctricos Tesla, también añadió su granito de arena al afirmar que “la Inteligencia Artificial es nuestro mayor reto existencial”. Un futuro de miedo y miedo al futuro. 



Los pánicos y miedos más profundos quizá estén detrás de los anhelos de Raymond Kurzweil. Quiere evitar su propia mortalidad, “cargando” su mente como software en una futura máquina superinteligentge. Sería un capricho pasajero si Kurzweil no fuera quien es. Hipercreativo, inventor prolífico y multimillonario, Kurzweil es también un gran comunicador. Agitó las aguas con su idea de  que “La singularidad está cerca”. Esto es, el momento en que surja una inteligencia maquinal muy superior a la humana. Según él, esto sucederá antes de 2030. Brillantes predicciones que nos deslumbran. Llegamos a creer que son las luces de un enorme camión que avanza directo hacia a nosotros. Sólo falta que la narrativa literaria o cinematográfica remache estos escenarios. Skynet y su Terminator son ya parte de la colección de concepciones populares sobre la Inteligencia Artificial.



También resulta que el meme de la singularidad tiene voceros más o menos cualificados con gran audiencia. El futurólogo Paul Saffo, desde su despacho de la Singularity University (fundada por Kurzweil, por cierto) afirmaba que “cualquiera que diga que las máquinas ‘no pueden hacer tal cosa’ se va a arrepentir”. Es bien cierto que abundan los ejemplos de inteligencia artificial superior a la humana. De momento, sin embargo, son inteligencias restringidas a tareas bastante concretas. Que sean tan espectaculares como ganar a Kasparov al ajedrez o vencer en el concurso de Jeopardy no deja de remarcar su especialización.



¿Por qué, pues, tanto ruido? La Inteligencia Artificial, a pesar de sus limitaciones, también resulta ser la inversión “trendy” para el 2015 en Silicon Valley.  Amazon, Facebook, Google, Apple y otros grandes han adquirido muchas pequeñas start ups que desarrollan técnicas de inteligencia artificial, desde el reconocimiento de caras en fotos hasta modelos cognitivos completos de la inteligencia humana. Estamos, pues, en una múltiple encrucijada. Posibilidades técnicas, talento aplicado, dinero y retornos de inversión que se anticipan como muy jugosos que disponen de todas las herramientas de marketing y comunicación para hacerse notar. La tormenta perfecta. 



El auge y comercialización de la inteligencia artificial significa la consolidación de otra tecnología de riesgo. El recientemente fallecido Ulrich Beck propuso que las tecnologías eran “marca de fábrica” de las sociedades de riesgo. Las sociedades modernas son “sociedades de riesgo”. Se caracterizan por la gestión de los nuevos riesgos creados por las tecnologías. A su vez, estas son resultado y motor del proceso de modernización, según Beck.



Se pueden gestionar esos riesgos de muchas maneras.  La concienciación de los propios tecnólogos es una de ellas. El citado Elon Musk donó 100 millones de dólares para el Future of Life Institute. Al igual que el Institute for Ethics and Emerging Technologies, es una institución que vela por el desarrollo ético de las tecnologías, la Inteligencia Artificial entre ellas. La comunidad de investigadores en Inteligencia Artificial, ha promovido la “Carta Abierta sobre las prioridades de investigación para una inteligencia artificial robusta y beneficiosa”. La han firmado multitud de académicos y profesionales de la inteligencia artificial de todo el mundo.



Ramon López de Mántaras, firmante de ese documento y uno de mis primeros tutores de investigación en Inteligencia Artificial resumía no hace mucho el estado de cosas en que estamos "creo que se irá acortando la distancia entre nuestra inteligencia natural y la inteligencia artificial porque, por un lado, vamos dotando a las máquinas de algunos aspectos de sentido común, y por otro, me temo, la humanidad está perdiendo el sentido común”.



¿Resuelve la concienciación ética de los investigadores el problema de los riesgos de la inteligencia artificial? ¿Cómo se ha convertido en una tecnología de riesgo? Ahora mismo ya tenemos multitud de pequeñas y limitadas inteligencias artificiales poco brillantes pero muy efectivas. Deciden qué libro nos gustará, qué descuento aplicarnos en nuestro próximo viaje, cómo pujar en una subasta, qué acciones de bolsa vender, qué aspersor activar en una explotación agrícola, cómo controlar las depuradoras de toda una cuenca hidrográfica y muchas más cosas. A este magma de semiinteligencias es lo que he llamado en otros lugares “inteligencia artificial gris”. 



Creo que el riesgo está en que no sabemos bien cómo interaccionan estos sistemas inteligentes simples cuando están conectados entre sí. Parecen haberse convertido en una nueva clase de “algoritmos de caja negra”. Esto es, algoritmos que funcionan por ahí pero que ya no entendemos, algoritmos que desconocemos y otros que, aún conociéndolos, no sabemos controlar su efecto agregado cuando interactúan con otros algortimos inteligentes. Por ejemplo, nadie sabe aún qué causó el “flash crash de las 2:45 pm” de la bolsa americana en 2010 que volatilizó el 9% del mercado



Necesitamos una nueva “Ciencia de lo artificial”, más allá de la que propuso en su día Herbert Simon.  Hay que entender las leyes de funcionamiento de estos ecosistemas artificiales de manera similar a cómo la ecología nos ayuda a confrontar los riesgos de los sistemas naturales. Sin este saber, es más posible que, más que una inteligencia superior, sea una “estupidez combinada y emergente” la que provoque los cataclismos con los que nos asustan tan reputados y célebres personajes.



Investigar las limitaciones éticas del diseño de sistemas inteligentes es un paso. Ahí están las publicaciones sobre “Ética para robots”, por ejemplo. Pero no es suficiente. Si estamos ya rodeados de una “sociedad de agentes artificiales”, hay que pensar también en cómo se regulan de manera ética las relaciones sociales entre sistemas inteligentes y entre sistemas inteligentes y nosotros. No es nada fácil saber cuál es la decisión éticamente correcta de manera global en un sistema formado por miles  o millones de pedazos de software inteligente. Un problema que replica en la tecnología, uno de los dilemas clásicos de la convivencia humana en sociedad. 


 

Sobre el autor

Ramon Sangüesa, UPC y equipocafeína.

 

Compartir en

Utilizamos cookies para mejorar nuestros servicios. Puede cambiar la configuración u obtener más información en nuestra política de cookies

Los ajustes de cookies de esta web están configurados para "permitir cookies" y así ofrecerte la mejor experiencia de navegación posible. Si sigues utilizando esta web sin cambiar tus ajustes de cookies o haces clic en "Aceptar" estarás dando tu consentimiento a esto.

Cerrar

Utilizamos cookies para mejorar nuestros servicios. Puede cambiar la configuración u obtener más información en nuestra política de cookies

Los ajustes de cookies de esta web están configurados para "permitir cookies" y así ofrecerte la mejor experiencia de navegación posible. Si sigues utilizando esta web sin cambiar tus ajustes de cookies o haces clic en "Aceptar" estarás dando tu consentimiento a esto.

Cerrar