Apareció la información en el global del pasado martes. Dos versiones no idénticas: una impresa y otra electrónica. Tomo pie en la segunda [1]. A modo de aviso de precaución: no se asusten; si están flojitos, mejor no lean. La tesis que se vislumbra: Chaplin se quedó corto en «Tiempos modernos»; Fritz Lang también en […]
Apareció la información en el global del pasado martes. Dos versiones no idénticas: una impresa y otra electrónica. Tomo pie en la segunda [1]. A modo de aviso de precaución: no se asusten; si están flojitos, mejor no lean. La tesis que se vislumbra: Chaplin se quedó corto en «Tiempos modernos»; Fritz Lang también en «Metrópolis». Con «Blade Runner» nos aproximamos un poquito más a nuestro futuro tecnológicamente deslumbrante.
Los ingenieros de la industria automovilística de Detroit, Tokio y Stuttgart ya saben cómo fabricar vehículos sin conductor . Más o menos sabido. Hasta los de Google parecen haber resuelto el problema. Ahora viene lo difícil. ¿Lo difícil? «Decidir si las máquinas deberían tener poder sobre quién sobrevive y quién muere en un accidente». Como han leído, sin cambiar una coma ni siquiera una letra. Este es el asunto controvertido del momento: ¿deben decidir las máquinas que ya sabemos desde Turing que saben «pensar»?
El sector, prosigue la noticia con un cuento, promete «un futuro brillante con vehículos autónomos que se moverán armónicamente como bancos de peces», sin importarles un pimiento las consecuencias ecológicas, la contaminación, el mundo que estamos construyendo-destruyendo, la estética de las ciudades, las calles y sus pobladores en sus manos, etc. ¡El quinto jinete del Apocalipsis, que diría Manuel Sacristán, por fin autosuficiente y mostrando a un tiempo su omnímodo poder por las calles y carreteras de todo el mundo! No obstante, prosigue la información, «esto no se hará realidad hasta que los fabricantes de coches respondan a la clase de preguntas espinosas que ha explorado la ciencia ficción desde que Isaac Asimov escribiese su serie sobre robots el siglo pasado». ¿Qué preguntas? Esta por ejemplo: «¿debería un vehículo autónomo sacrificar a su ocupante con un giro brusco que lo haga caer por un precipicio para evitar matar a los niños que llenan un autobús escolar?». Ni más ni menos, como acaban de leer.
Aquí, se señala, «los ejecutivos de la industria automovilística se encuentran en terreno desconocido». De ética, ni idea. Lo suyo, como nos explicó impecablemente el personaje que interpretaba Jeromy Irons en Margin Call (2011), es otra cosa. ¿Qué han hecho entonces? Han reclutado a especialistas, la cosa para ellos siempre va de especialistas, «en ética y a filósofos para que les ayuden a navegar por los matices que van del blanco al negro». ¿Éticos y filósofos al servicio de las grandes multinacionales de la destrucción-contaminación? Han leído bien. Desconozco los nombres de estos sesudos y serviciales pensadores.
Nada menos que Ford, General Motors, Audi, Renault y Toyota, la flor y nata de la profundidad humana, se han dirigido al Centro de Investigación en Automoción de la Universidad de Stanford, donde por cierto estudió uno de los grandes historiadores de la ciencia de este país de países. Allí, según parece, se están programando coches con el fin de que tomen decisiones éticas. Eso sí, luego se observará qué ocurre. ¡Un poco de contrastación nunca viene mal! Con palabras del director del departamento Chris Gerdes: «Indudablemente, el tema está en el punto de mira». Gerdes se reunió con los directores ejecutivos de Ford y General Motors para debatir la cuestión. Más Gerdes-reflexión: «Son conscientes de los problemas y los retos porque en la actualidad sus programadores tratan activamente de tomar esas decisiones».
Los fabricantes de automóviles -Google-gran-hermano (uno de los mayores y más temibles enemigos de todos los pueblos del mundo a no ser que queramos cegarnos) también está en esta cocina por supuesto-, las automovilísticas, decía, están gastando miles de millones en desarrollar coches sin conductor. ¿Cuántos miles de millones? Lo ignoro. ¿Con qué finalidad de fondo? La intuyo, me la puedo imaginar pero me reservo la conjetura, no pinta bien. Este verano, «Google proyecta poner en las carreteras de California «unos cuantos» coches autónomos que hayan pasado el examen de la pista de pruebas». ¡A ver qué pasa! ¡A ver qué decisiones éticas toman! ¡La posmodernidad, mirada de frente, es eso! No se trata de que nos atrevamos a pensar, que eso es muy antiguo; se trata de atreverse con los máximos horizontes de grandeza y poder, sin andarse con chorradas humanistas y obsoletos y regresivos principios de precaución. ¡El mundo es nuestro, el sistema solar está a nuestro alcance, la galaxia es pan comido, los universos del universo son la conquista del próximo futuro!
Según predicción de Boston Consulting Group, «es posible que, dentro de una década, haya vehículos totalmente automatizados circulando por las carreteras públicas. Los coches serán una de las primeras máquinas autónomas que pondrán a prueba los límites del sentido común y la reacción en tiempo real». ¿Para qué, por qué? ¿Qué sentido común? ¿Qué límites? ¿Se trata de mecanizar al ser humano? ¿De arrojar a la cuneta de lo inservible unos 3 mil millones de una especie ya superada?
No sólo eso. En opinión del filósofo Patrick Lin, director del Grupo de Ética y Ciencias Emergentes de la Universidad Politécnica de California y consejero de fabricantes de automóviles (¿cómo se puede ser ambas cosas a la vez y no haber perdido el seny?), «será lo que marque la pauta para todos los robots sociales. Son los primeros robots verdaderamente sociales que transitarán entre la gente». ¿Verdaderamente sociales? ¿Robots sociales? ¿Los primeros?
Luego viene el chocolate del loro: «los coches que conducen solos prometen anticipar y evitar los choques, lo que reducirá espectacularmente las 33.000 muertes anuales en las carreteras de Estados Unidos». Veremos en que quedan esas cifras publicitarias. Pero, admiten en todo caso, que seguirá habiendo accidentes. Nadie -ni nada- es perfecto nos recordó Wilder. Y en esos momentos «cabe la posibilidad de que el coche robot tenga que elegir el mal menor, como por ejemplo girar e invadir una acera llena de gente para evitar ser alcanzado por detrás por un camión a toda velocidad, o quedarse en el sitio y poner en peligro mortal al conductor». El übermensch Jeff Greenberg, director técnico de la interfaz hombre-máquina de Ford, ha señalado: «Hay que responder a esta clase de preguntas antes de que la conducción automatizada se haga realidad». ¡Listo como el hambre! ¡Premio extraordinario para mister JG! ¡El futuro ya en su cabeza!
Por el momento, se nos cuenta, «los especialistas en ética tienen más preguntas que respuestas». Dos ejemplos. Tomen nota de la primera de ellas pero por favor no vomiten: «¿Las normas que gobiernan a los vehículos autónomos deberían dar prioridad al bien mayor -el número de vidas salvadas- y no dar valor a los individuos involucrados?». La segunda,. usando además a Asimov perversamente: «¿Deberían inspirarse en Asimov, cuya primera ley de la robótica dice que una máquina autónoma no puede causar daño a un ser humano, o debido a su inacción, permitir que le sea causado?».
Miren lo que nos cuenta el sesudo Lin, el citado director del Grupo de Ética y Ciencias Emergentes de la Universidad Politécnica de California: «Yo no querría que mi coche robot vendiese mi vida solo para salvar otra u otras dos. Pero esto no quiere decir que el vehículo deba preservar nuestra vida por encima de todo, sin que importe de cuántas víctimas estemos hablando. Eso me parecería muy mal». Pero ¿y si son pobres, o negros, o latinos, a mujeres desfavorecidas, o trabadores en paro? ¿También entonces? ¡Quieren mecanizar las decisiones humanas cuya complejidad es prácticamente inabarcable! ¡Quieren algoritmizar no lo general, sino lo concreto, lo que exige la intervención de miles y miles de informaciones, valores, consideraciones, reflexiones, etc! ¿Con qué criterios además? ¿Quién los establecerá? ¿Quién creará ese «sentido común tecnológico»?
Hay alguna voz crítica. Por esta razón, señala Wendell Wallach, investigador del Centro Interdisciplinar de Bioética de la Univeridad de Yale [y autor de A Dangerous Master: How to Keep Technology from Slipping Beyond Our Control [Un amo peligroso. Cómo impedir que la tecnología se nos vaya de las manos], no deberíamos dejar esas decisiones en manos de robots. Su propuesta, su postulado ético: «El camino a seguir es crear un principio absoluto según el cual las máquinas no tomarán decisiones sobre la vida y la muerte. Debe haber un ser humano involucrado. Si la gente piensa que no se la considerará responsable de las acciones que emprende, acabaremos teniendo una sociedad sin ley». Parece razonable, era razonable. ¿Ya no lo es, empieza a no serlo?
Se nos informa también que mientras que Wallach, Lin y otros especialistas «lidian con las complejidades filosóficas», Gerdes va a lo suyo y lleva a cabo experimentos en la realidad. La práctica sesgada, el pragmatismo más plano por encima de todo. Un ejemplo. «Este verano, en un circuito de carreras del norte de California, probará vehículos automatizados programados para seguir normas éticas a la hora de tomar decisiones instantáneas, como por ejemplo, cuándo es adecuado desobedecer las reglas del tráfico y cruzar una doble línea continua para dejar sito a ciclistas o a coches aparcados en doble fila».
Gerdes también está colaborando con Toyota. ¿En qué? En encontrar maneras de que «un coche autónomo devuelva rápidamente el control a un conductor humano. Incluso esta clase de transferencia está llena de peligros, afirma, sobre todo a medida que los automóviles hacen más cosas y las habilidades de conducción disminuyen». Gerdes admite que el problema de otorgar a un vehículo autónomo el poder de tomar decisiones importantes es que un coche sin conductor carece de empatía y de la capacidad de captar el matiz. ¡Menos mal, una chispa de algo! Por ahora, señala, «no se ha diseñado ningún sensor tan bueno como el ojo y el cerebro humanos». Por ahora. ¡A por ello! ¿No tienen nada mejor qué hacer estos tecnólogos y filósofos? ¿El mundo a sus ojos es eso? ¿Estas son las verdaderas necesidades humanas? ¿Para quiénes piensan, para quiénes trabajan?
Definitivamente y para no cansar más: no sólo es que el capitalismo no es un humanismo, nunca lo ha sido; no sólo es que el ser humano no es su capital más preciado, sino que su racionalidad de fondo, la racionalidad de fondo de la era del Capital nos lleva a la locura, a la hybris tecnológica, a caminos (inhumanos) sin salida y, probablemente, a la destrucción o fuerte modificación de la especie y de nuestras sociedades tal como las conocemos. Esto, como diría Naomi Klein, también lo cambia todo.
Notas:
[1] http://economia.elpais.com/economia/2015/06/30/actualidad/1435654653_146424.html
Rebelión ha publicado este artículo con el permiso del autor mediante una licencia de Creative Commons, respetando su libertad para publicarlo en otras fuentes.