
Enero de 2017 en California (EEUU). En el inmaculado centro de conferencias de la ciudad costera de Asilomar, más de un centenar de expertos en inteligencia artificial (IA) de distintos lugares del globo están reunidos bajo una premisa aparentemente sencilla: analizar e indexar de qué forma ésta es beneficiosa para el ser humano. Los profesionales invitados -algunos de ellos desfilarán por éste y otros reportajes-, que cubren áreas diversas, tienen tres dÃas por delante para debatir cómo ha de desarrollarse la IA, podrÃa decirse que en el futuro. Pero éste, más que nunca, es sinónimo de ya, aquà y ahora.
Porque hay algo en lo que convergen intelectuales divergentes alrededor del mundo: la base sobre la que se asentará la inteligencia artificial, y también lo que supondrá para la humanidad, se está gestando mientras usted lee este especial. Lo afirma, por ejemplo, el futurista alemán Gerd Leonhard, autor de un libro cuyo tÃtulo no deja lugar a dudas: La tecnologÃa contra la humanidad, el choque entre el hombre y la máquina: «Hoy es el momento en que construimos nuestro futuro y este hoy es el mayor reto al que se ha enfrentado el género humano hasta el momento, la posibilidad de una especie de superhombre que se convierte en Dios no tiene precedentes», sostiene.
>_ «No podemos adentrarnos en el futuro con miedo. Debemos ser cautos, pero abiertos al progreso»
Leonhard se sitúa en el lado de la trinchera que defiende que la relación que tenemos con la tecnologÃa debe, por lo menos, pensarse. Pero no es un alarmista. «Creo que a veces reaccionamos de forma exagerada ante los posibles peligros, y no podemos adentrarnos en el futuro con miedo. Debemos ser cautos, pero abiertos al progreso», argumenta. Pero es él también quien afirma que «el exponencial desarrollo tecnológico, y su tremendo potencial, es una oportunidad que trae consigo nuevas y tremendas responsabilidades», él quien sostiene que «la avalancha de cambios tecnológicos puede reformar la esencia de la humanidad y también todo aspecto de nuestro planeta», él quien cree que «la tecnologÃa no es lo que buscamos sino cómo lo buscamos».
Afirmaciones que le sitúan a años luz de, por ejemplo, Natasha Vita-More, una de las lÃderes del transhumanismo, movimiento que defiende precisamente abrazar la tecnologÃa. Llamémoslo sinergia. O simbiosis. Al igual que Leonhard, esta especialista en la deriva humano-tecnológica cree que 2018 es un año crucial en lo que respecta a la IA. Aunque Vita-More, profesora en la Universidad de TecnologÃa Avanzada (Arizona, EEUU) y autora del ensayo El lector transhumanista, no cree que exista un debate de extremos entre humanistas (Leonhard serÃa uno de ellos) y transhumanistas. «No hay polémica porque ambos valoramos la conciencia humana. La única excepción es que nosotros apoyamos la evolución humana y ellos su estancamiento«. ¿Cómo saber, en mitad de la carrera tecnológica, smartphone en mano, en qué vértice se encuentra uno? Atendiendo, por ejemplo, a las preguntas que se hacÃan los expertos aquel fin de semana en California.
«¿Cómo crear sistemas de inteligencia artificial potentes que hagan lo que nosotros queremos, sin errores y sin ser hackeados? ¿Cómo conseguir prosperidad a través de la automatización mientras se mantienen los recursos y los objetivos de los seres humanos? ¿Cómo actualizar la legislación de la inteligencia artificial para que sea más eficaz y más justa y tenga en cuenta sus riesgos? ¿Con qué valores debe alinearse la IA y cuál deberÃa ser su estatus legal y ético?».
Es precisamente el desarrollo legislativo -que responderÃa a cuestiones éticas- uno de los asuntos que más preocupa ahora a quienes trabajan -piensan- la inteligencia artificial; signo de que éste es el momento histórico en el que verdaderamente los humanos ponemos a prueba nuestra esencia como tal. «La tecnologÃa no tiene ética, pero la humanidad depende de ella», apunta Leonhard. «Sû, disiente Vita-More, «la tecnologÃa sà tiene ética, es un producto pero también un paso evolutivo o un proceso que permite repensarlo todo».
 «TenÃa la esperanza de que, por una vez, el marco legal y polÃtico estuviera preparado. Pero la tecnologÃa evoluciona muy rápido»
En ello está, también, la UE. Unas semanas después del encuentro californiano, el 27 de enero de 2017, tres eurodiputados presentaban a la Comisión Europea una serie de «recomendaciones sobre normas de Derecho civil sobre robótica». Éstas incluyen afirmaciones como que «existe la posibilidad de que, a largo plazo, la inteligencia artificial llegue a superar la capacidad intelectual», que «el potencial de empoderamiento que encierra el recurso a la robótica se ve matizado por una serie de tensiones o posibles riesgos y que debe ser evaluado detenidamente a la luz de la seguridad y la salud humanas; la libertad, la integridad y la dignidad, la autodeterminación y la no discriminación, y la protección de datos personales».
La ponente principal, la socialista luxemburguesa Mady Delvaux, Georg Meyer, de la Comisión de transportes y turismo, y Michal Boni, de la Comisión de libertades civiles, justicia y asuntos de interior pedÃan a la Comisión «que estudie la posibilidad de designar a una agencia europea para la robótica y la inteligencia artificial que proporcione los conocimientos técnicos, éticos y normativos necesarios para apoyar la labor de los actores públicos pertinentes (…) de garantizar una respuesta rápida, ética y fundada ante las nuevas oportunidades y retos -sobre todo de carácter fronterizo- que plantea el desarrollo tecnológico de la robótica».

¿Llega tarde la propuesta o justo a tiempo? Dice Delvaux, en correspondencia electrónica con EL MUNDO, que «hace cuatro años, cuando se puso en marcha el grupo de trabajo en el Parlamento Europeo, pensaban que el futuro era lejano». «TenÃa la esperanza de que, por una vez, el marco legal y polÃtico estuviera preparado para semejante transición. Pero la tecnologÃa evoluciona muy rápido y me temo que nosotros somos lentos. Por ejemplo, los coches autónomos: creÃamos que estarÃan listo en décadas y ya están disponibles en el mercado, aunque no a gran escala; los productos están testándose, los procesos legislativos nacionales también… es nuestro deber rellenar los huecos legales, manejar los riesgos y asegurar los beneficios de la tecnologÃa«, explica.
Pero hasta el pasado 25 de abril la UE no emitió ningún comunicado al respecto. Y lo dicho entonces es, para Delvaux, «óptimo pero insuficiente». La Comisión Europea propone una serie de medidas para incrementar las inversiones en IA, tanto públicas como privadas, llegando a los 20.000 millones de euros de aquà a 2020. Delvaux no tenÃa muchas esperanzas de que la UE sacara adelante una agencia especializada en IA y, cuando lo contaba, aún no habÃa sucedido el accidente del coche autónomo de Uber en el que falleció un ciudadano en Tempe, Arizona. Justo donde da clase, en la Universidad de TecnologÃa Avanzada, la transhumanista Vita-More.
«Es importante garantizar la compensación de las vÃctimas, incluso cuando la autonomÃa de los sistemas no permita identificar a la persona responsable del daño. También es esencial adaptar las reglas de protección de datos porque estas tecnologÃas precisan mucha información y puede haber conflictos con la intimidad. También estoy preocupada por las cuestiones éticas. Propusimos una carta para los desarrolladores e ingenieros en nuestro informe. Los robots y la inteligencia artificial son alucinantes pero deben permanecer a nuestro servicio y respetar nuestros derechos; son una oportunidad y debemos decidir cómo queremos que ésta conforme nuestro futuro», culmina Delvaux.
También menciona los accidentes relacionados con coches autónomos Hayden Belfield desde el Centro para el estudio de los riesgos existenciales, un grupo de investigación de la Universidad de Cambridge. Belfield compara, incluso, la inteligencia artificial con dos momentos históricos de máxima trascendencia para el género humano, «la invención del fuego y la energÃa nuclear». «Debemos ser extremadamente cautelosos. Los riesgos fundamentales son tres: accidentes, malos usos y carreras de armas. Los sistemas de inteligencia artificial en ocasiones funcionan mal. Por ahora, los daños que pueden causar son limitados, aunque ya ha habido accidentes fatales con coches autónomos. Pero a medida que los sistemas se expandan, especialmente en asuntos de seguridad y áreas militares, pueden ocasionar mucho más daño: drones que no funcionan bien, hackeos, propaganda computacional… Cuanto más potente sea la tecnologÃa, más daño puede causar».

Belfield también es contundente acerca de los beneficios que aporta la IA. Al igual que Leonhard y Vita-More, es decir, al igual que humanistas y transhumanistas, destaca la importancia de la inteligencia artificial a la hora de solucionar uno de los problemas que más lejano y cercano parece al mismo tiempo para los seres humanos: «El cambio climático». Pero, sobre todo, y como todos, insiste en la necesidad urgente de colaboración y cooperación. No es casual que 100 expertos se reunieran hace un año en Asilomar para sentar las bases de lo que ya está entre nosotros. La mayor urgencia, sostienen todos los expertos, es que «desarrolladores de inteligencia artificial, legisladores, gobiernos e instituciones trabajen al unÃsono». «Tenemos que ponernos a trabajar duramente», insiste Belfield, «porque es la única manera de que los beneficios sean grandes».
Pero hasta el término inteligencia artificial resulta «demasiado amplio y demasiado vago», apunta John C. Havens, director ejecutivo de la asociación norteamericana Iniciativas éticas de los sistemas autónomos e inteligentes, que ofrece información a empresas y particulares. Havens, habitual analista de medios internacionales en relación a la tecnologÃa, destaca también que «los riesgos que trae consigo la IA no son responsabilidad de ésta ni de sus desarrolladores». «Lo que sucede es que internet y el consentimiento de datos evoluciona y, en este momento, ha de cambiar, o la identidad y la capacidad emocional del ser humano variará, y entonces sà que los riesgos serán mayores», prevé.
>_ «Lo que sucede es que internet y el consentimiento de datos evoluciona y, en este momento, ha de cambiar»
Havens está especialmente preocupado por los datos personales que los humanos cedemos cada vez que, visualÃcese, damos a aceptar al usar una app. «Los riesgos están allà donde empleamos sistemas de inteligencia artificial. El primero de ellos es cómo se están usando los datos de la gente para crear algoritmos que construyen la inteligencia artificial. Si no firmas los consentimientos, no tienes acceso a los servicios. Las sociedades deberÃan evolucionar hacia sistemas que incluyan herramientas de control de datos, como sucede en Estonia, donde los ciudadanos tienen acceso a la información de cuándo y cómo se emplean sus datos», propone.
El éxito de la inteligencia artificial, dice Havens, vendrÃa dado por tres vertientes: «Personas, planeta y beneficios». «Se debe priorizar la equidad de los ciudadanos, el planeta y los beneficios que se obtienen. Poniendo al menos estos tres elementos en la balanza, la humanidad tendrá una oportunidad. De otra manera, sucederÃa que los humanos no serÃamos sostenibles. Las máquinas de inteligencia artificial están destinadas a superarnos en toda habilidad y en todo atributo». Y hay algo en lo que, según Francesca Rossi, responsable de ética de IBM y presente en el encuentro de Asilomar, nos superan ampliamente: «La ausencia de prejuicios». «La clave está en la complementariedad, esto es lo que se deberÃa explotar. Hay que conseguir que las máquinas hagan de nosotros mejores seres humanos», reta.
Los objetivos están claros, pero no tanto las consecuencias. Se acuerda Leonhard del filósofo alemán Martin Heidegger y uno de sus conceptos fundamentales, el Dasein o ser ahà (Da, existencia, sein, ahÃ) y se pregunta: «¿Cuando la inteligencia artificial gobierne la nube y exista un cerebro global, podrá éste comprender el Dasein?». ¿Podrán las máquinas algún dÃa entender lo que significa ser humano? ¿Y cómo debe el género humano relacionarse con las máquinas, los robots, cualquier dispositivo gobernado por una inteligencia artificial? Hasta el momento, las reacciones son desmedidas. Por ejemplo, en octubre del año pasado, durante la feria Arts Electonica Festival, celebrada en Austria, un robot sexual llamado Samantha, creado por una empresa española, Synthea Amatus, tuvo que ser retirado después de que los asistentes a la feria lo destrozaran de tanto usarlo. «Se comportaban con ella como bárbaros. Se agolpaban para sobar sus pechos, piernas y brazos. Le rompieron dos dedos», relató entonces al digital británico Metro el creador de este robot sexual, el barcelonés Sergi Santos.
Para John Havens, que es uno de los mejores analistas internacionales en lo que a transformación digital se refiere, «cómo respondan los humanos a los sistemas artificiales depende sólo de ellos». «Si creen que un robot o una máquina es real, ésa es su verdad subjetiva. Lo importante es diseñar herramientas que contengan la posibilidad del consentimiento sobre cómo queremos que entren en nuestras vidas. El antropomorfismo, creer que un objeto es algo real, es algo con lo que convivimos desde el inicio de los tiempos». Desde el Instituto para el Futuro de la Vida, fundado por Jaan Tallinn, fundador de Skype, y responsable del encuentro de Asilomar, culmina una de sus integrantes, Ariel Conn: «Desconocemos los lÃmites aún pero sÃ, hasta ahora, el ser humano ha podido aprender a usar la tecnologÃa, no hay por qué pensar que no lo conseguiremos esta vez».
Fuente: El mundo
Descubre más desde NotaTrasNota
SuscrÃbete y recibe las últimas entradas en tu correo electrónico.