Estimados
chavales, masas abotargadas e individuos intelectualmente insatisfechos en
general, cese vuestro desasosiego, que aquí llega la inefable Gacetilla con
alimento para vuestros hambrientos cerebritos.
Hoy vamos a hablar de la revolución de los robots malignos contra sus
creadores humanos. Y, de forma bastante
inquietante, nos proponemos hacerlo completamente en serio.
¡Terror,
horror y pavor acechan a quien ose seguir leyendo!
“Skynet adquirió conciencia de si mismo a las
8 horas y 11 minutos del 19 de Abril de 2011…”
Y
cualquier aficionado al género de ciencia ficción puede confirmar que, poco después de ese evento,
Skynet, el malvado ordenador de la famosa saga cinematográfica “Terminator”,
lanzó su iniciativa estrella: exterminar
a la humanidad entera.
La
consecuencia más evidente de la conspicua falta de empatía cibernética de
Skynet fue el masivo apelotonamiento de masas de humanos aterrados, fuertemente
armados de palomitas y refrescos, ante las pantallas de todo el mundo. Unos cuantos tiros, gritos, persecuciones e
ingeniosos diálogos más tarde, John Connor salva a la humanidad y Skynet
pierde. Sayonara, baby, y qué bien que
nos lo pasamos huyendo de los robots asesinos.
Mucho
nos tememos, sin embargo, que podemos estar cerca de pasarlo considerablemente
menos bien. Aunque la fecha del
despertar robótico tan precisamente indicada por los guionistas de Terminator
en 1984 haya resultado reconfortantemente errónea, puede que su único error fuera
uno de mero calendario. El adviento de
un Skynet más que real puede estar más cerca de lo que pensamos. Veamos por qué.
Un evento singular
Llamamos
singularidad a un punto exacto en una secuencia, a partir del cual ésta se hace
impredecible. Pensad en un ciego,
acostumbrado a caminar por una acera sirviéndose de su bastón. Al cabo de un tiempo de guiarse usando las
paredes y bordillos como referencias habituales, nuestro ciego se sentiría
relativamente seguro. Sin embargo, si un
pocero dejase entonces descuidadamente abierta la tapa de una alcantarilla al
paso de nuestro desafortunado invidente, éste no tendría manera de sospechar
que allí habría quedado abierto un agujero en medio de la acera, y caería
dentro de la alcantarilla irremisiblemente. Así pues,
la aparición de una singularidad daría lugar a que una serie de paseos por la
acera aparentemente familiares, se interrumpiese abruptamente con un desenlace
del todo insospechado.
En
tecnología, suele denominarse la “Singularidad” a la aparición de una máquina
más inteligente que el hombre. En ese
momento, nuestro hasta ahora triunfal paseo como especie dominante sobre la
Creación podría ponerse en cuestión, resultando un cambio de paradigma tan
abrupto como imprevisible.
Hasta
ahora, el adviento de la Singularidad ha estado circunscrito a entretenidas
ficciones como Skynet, pero esta Gacetilla acaba de percibir un fuerte olor a
aguas residuales. ¿Está pues la
humanidad a punto de caer por una alcantarilla evolutiva?
Inteligencia artificial
Mucho
se ha predicado sobre la Inteligencia Artificial (IA). Sin embargo, es posible que en la Redacción
de esta imperecedera publicación no gocemos de gran inteligencia natural,
porque cada vez que hemos pedido una explicación sobre qué es la IA, hemos obtenido lo que no nos ha parecido más que un conjunto deslavazado de
referencias vagas bastante inútiles.
Una
explicación alternativa, por supuesto, es que nos hayamos encontrado siempre ante
charlatanes, incapaces de dar una explicación sencilla por la probable razón de su
desconocimiento de la materia. Si
vosotros habéis tenido alguna vez pues la sensación de estar en una
situación similar, sabed al menos que no sois los únicos.
La
buena noticia es que por fin incluso nosotros hemos conseguido entender qué es
la inteligencia artificial, o sea que no debe ser tan difícil después de
todo. Os lo vamos a contar a
continuación. ¿Listos?
No hacía falta tanta inteligencia
La
inteligencia artificial no es más que una nueva forma de programación, que se
usa para que los ordenadores puedan enfrentarse a problemas que no pueden
manejarse con las formas de programación tradicionales, porque exigirían el
manejo de demasiados datos.
Un
ejemplo es la determinación de cual es el contenido de una foto. En programación tradicional, se pediría al
ordenador que comparase la foto con cada una de las de que tuviera en un banco
de imágenes, hasta que hallase una igual.
Sin embargo, resulta evidente que el universo puede generar incontables
imágenes, de modo que no hay banco de imágenes capaz de abarcarlas a todas. Para superar ese problema, se programa al
ordenador analice la foto en cuestión en varias “capas”.
La primera
capa de análisis, sólo busca determinar qué partes de la foto contienen un
rasgo, tal como una línea, una combinación de colores o una curva. Una vez averiguado esto, el ordenador hace
un resumen de la foto del tipo “esta foto no parece contener caras humanas ni
texto escrito, pero contiene una curva negra, dos líneas rectas, un triángulo
amarillo, una zona azul celeste, y una curva roja por su interior y azul por el
exterior”. Acabado el análisis, la
primera capa del ordenador pasa un resumen de lo que ha encontrado a la segunda
capa, y desecha el resto de la información contenida en la foto
La
única materia prima que la segunda capa utiliza son pues las conclusiones de la
primera que, en realidad, son bastante más prolijas de lo que os hemos explicado. La segunda capa intenta asociar esas conclusiones
a un banco de tipos imágenes que posee.
Digamos pues que el banco de imágenes tiene 2.000.000 de imágenes, cada
una etiquetada con varias palabras, de modo que una foto de niños jugando en la
playa estaría etiquetada como “niños, pelota, playa, verano, calor”. Entonces, la segunda capa determina que los
rasgos descubiertos por la primera capa suelen corresponder estadísticamente a
imágenes etiquetadas con ciertas palabras concretas, y selecciona 42.000
imágenes que más o menos están asociadas esas etiquetas.
Entonces, pasa sus conclusiones a la tercera capa, y desecha
la información sobrante.
Igual
que en el caso anterior, la tercera capa toma pues como materia de análisis
únicamente las conclusiones de la segunda capa, e intenta averiguar a cuál de
las 42.000 imágenes preseleccionadas por la segunda capa es más probable que
corresponda la foto inicial. Así, halla que de entre ellas, la foto parece encajar bien mejor con la imagen un petirrojo
fotografiado contra el cielo. Y aunque
no tiene ninguna foto de petirrojo contra cielo nublado, llega como segunda
conclusión estadística de que la foto inicial también parece contener un cielo nublado. Así, la tercera capa determina cual es
el contenido probable de la foto, y la etiqueta como “petirrojo”, “naturaleza”,
“aves”, “frío” y “otoño”.
Este
tipo de programación por capas se llama “red neuronal”. Naturalmente, la versión real es algo más
compleja: el flujo de información puede
no ser tan lineal como lo hemos descrito aquí, y puede haber más capas, o
incluso módulos espefícos que se ocupen de ciertas cosas (como identificar texto
o caras humanas, por ejemplo). Pero
funciona más o menos como lo hemos descrito.
Como
veis, la principal virtud de una red neuronal es que va desechando información
de forma lógica, hasta conseguir que un problema de infinitas posibilidades quede
reducido a un tamaño manejable para un ordenador (2.000.000 de fotos sí es un
número que un ordenador puede manejar bien).
Vale,
hasta aquí bien, pero ¿en qué momento se
convierte la red neuronal en la perversa Skynet?
Enseñanza general básica
Pues
aquí es donde entra la segunda característica de la programación de redes
neuronales, y es que el trabajo de programación es tan extenso, que los
programadores usan al propio ordenador para hacer gran parte del mismo.
En
particular, los programadores no parametrizan las capas inicialmente, sino que capa
genera sus propios parámetros a partir de un banco de datos genérico, en un
proceso que se llama “aprendizaje”.
En el
caso de nuestro ejemplo, se facilitaría al sistema el banco de 2.000.000 fotos descrito,
cada una de las cuales habría sido etiquetada por humanos previamente (por
ejemplo, una foto con niños en un parque estaría etiquetada como “niños”,
“parque”, “columpios” y “juego”).
La
propia red neuronal haría entonces su propio análisis de cada foto, derivando
los parámetros que cada capa necesita a partir de las conclusiones del
análisis. Por ejemplo, el propio sistema
decidiría que parece estadísticamente importante que en las fotos etiquetadas como
“libro” suele salir alguna letra. Sin
embargo, el sistema llegaría a la conclusión de que en las fotos antiguas el
análisis de la carga relativa de colores parece estadísticamente irrelevante
(lógico, porque están todas en blanco y negro).
De esa
forma, el sistema determinaría qué rasgos son importantes (que haya letras o no
las haya), cuales no lo son (carga de colores en fotos antiguas), cual es la
mejor forma de identificarlos (si hay siluetas contrastadas puede haber
letras), y a qué etiqueta se asocia cada uno de ellos (si hay letras, entonces podría
ser apropiada la etiqueta “libro”). La
novedad, como veis, es que todo este análisis lo haría el propio sistema, sin
intervención del programador.
Una vez
hecho el aprendizaje, el programador podría en teoría intervenir para auditar
las conclusiones a las que ha llegado el sistema, y ver por ejemplo qué
probabilidad se ha asignado a que una foto con letras corresponda efectivamente a un libro. En la práctica, sin embargo, no suele
hacerlo.
Tened
en cuenta que los sistemas siguen aprendiendo continuamente, cada vez que
entran datos nuevos (otras 50.000 fotos etiquetadas, por ejemplo) o a medida
que disponen de tiempo para perfeccionar el análisis estadístico (siempre que
dispongan de capacidad de proceso ociosa).
Además, a veces no es tan sencillo como “si hay letra, entonces libro”. Pensad en un sistema que controle el tráfico rodado
en una ciudad: una auditoría arrojaría
lo siguiente “a las 11:13 se aumenta los intervalos semafóricos de la plaza
porque… así el tráfico va mejor”. No habría forma que el sistema supiese, y menos
que explicase, que a las 10:57 suelen salir camiones de reparto desde una fábrica de
muebles. Para el sistema, los camiones
solo serían un vehículo más desplazándose por la pantalla.
Por ese
motivo, los programadores no sólo se apoyan en el sistema para hacer parte del
trabajo de programación (la parametrización por aprendizaje), sino que también
deben hacerlo para auditar los resultados.
Esto último, como veremos más adelante, es un poco inquietante.
Pero antes
volvamos a lo nuestro. Hemos quedado
pues que la inteligencia artificial es un tipo de programación que se hace por
capas, creando sistemas que se autoparametrizan mediante aprendizaje a base de
analizar grandes bases de datos, y que tienen la ventaja de que permiten
enfrentarse de forma exitosa a problemas informáticos con infinitos resultados
posibles.
Realmente inteligentes…
Lo
siguiente que debéis saber, es que la IA se ha desarrollado espectacularmente
en los últimos 9 años.
En 2009
empezaron a usarse procesadores gráficos (los de las consolas de videojuegos)
para motorizar las redes neuronales, porque se cayó en la cuenta de que su
arquitectura simplificada y veloz era mano de santo para este propósito. Los resultados están siendo espectaculares.
En 2015
se consiguió que una máquina fuese mejor que una persona etiquetando fotos
nuevas (en ciertas condiciones de laboratorio, no todavía en el campo
silvestre), y en 2017 otra máquina consiguió batir al campeón mundial de Go (un
juego oriental con mucha más estrategia abstracta que el ajedrez).
Y ya lo
estamos notando. Las aplicaciones de la
inteligencia artificial son muchas.
Obviamente, la primera de ellas consiste en analizar bancos de imágenes
(por ejemplo, las producidas por satélites espía), para averiguar cuales de
ellas contienen cosas interesantes, tales como nuevos emplazamientos de armas o
movimientos de buques. Otras más
mundanas, pero que puede apreciar cualquiera, tienen que ver con el
reconocimiento de voz o música. Pero hay
muchas más, como el seguimiento de
hospitalizaciones, para detectar epidemias de gripe (o de ébola), o el análisis
de los datos tráfico para optimizar los ciclos de apertura y cierre de los
semáforos que describimos anteriormente.
Bueno,
pues vale, pues todo muy bien. Pero ¿dónde está el problema?
¿…pero realmente malvados?
Ahora
vamos con ello. Un primer dato
inquietante ya os lo apuntamos más arriba, y es que la auditoría de los
sistemas de IA es tan complicada que suele usarse un sistema informático para
hacerla, lo cual crea intranquilidad.
Si se
usa para la auditoría el mismo sistema que se quiere auditar, podría resultar
que un error no se detecte porque falle el propio módulo de auditoría utilizado. Si por el contrario se usa para la auditoría un
sistema externo, éste suele ser más simple que el auditado, y por lo tanto también más fiable detectando errores. Sin embargo, un análisis hecho desde un sistema externo no averiguará por qué se producen los eventuales
errores que detecte. De una forma u otra, depender
de un ordenador para auditar un sistema no acaba de convencernos.
Y eso
suponiendo que realmente se desee auditar los sistemas de inteligencia artificial,
cosa que no siempre sucede. El
pasado mes de Febrero se conoció un incidente relacionado con un sistema de
reconocimiento facial, que era mucho más preciso identificando por sus fotos a
hombres blancos (99% de acierto) que a mujeres de piel oscura (65% de acierto). Al probarse esta circunstancia, el fabricante
accedió inmediatamente a investigar el origen del fallo, pero por motivos
comerciales se negó a compartir públicamente el banco de datos que había usado
para el aprendizaje de su máquina. De
modo que la auditoría del sistema quedó finalmente limitada a la que el
fabricante quisiera llevar a cabo, o tuviera el acierto de elegir, cuya calidad
se desconoce.
Otros
casos son todavía peores. Este mismo mes
de Marzo hemos sabido que una empresa inglesa, Cambridge Analytica (CA), había
analizado ilegalmente mediante IA un enorme banco de datos de Facebook. El fin era
identificar a votantes estadounidenses indecisos, a quienes achicharrar seguidamente con
“noticias” y propaganda personalizada, para conseguir que votaran por el entonces
candidato a Presidente americano Donald Trump.
En Gran
Bretaña, esa misma empresa usó idéntica técnica ilegal para apoyar la campaña a favor
del Brexit. Según uno de los cerebros de
CA, ahora arrepentido y considerablemente parlanchín, la inversión en el
programa de identificación de votantes personalizado ascendió a un tercio del
total gastado de la campaña del Brexit.
Eso da una idea de los resultados que los patrocinadores confían en sacar
de tales actividades (y no son tontos), pero también de lo rematadamente improbable que puede resultar la realización de una auditoría al sistema de IA que usaron
(seguro que no colaboran mucho).
A la
vista de ello ¿creéis vosotros de que
los sistemas de IA con aprendizaje autónomo suelen auditarse siempre detalladamente,
o en ocasiones más bien sólo por encima y un poco a huevo? ¡Misterio, emoción!
Bien,
pues sabemos que la IA ya es real, sabemos cómo funciona, sabemos que está
progresando rapidísimamente en los últimos 3 años, y sabemos el motivo de su avance. Además hemos averiguado que
técnicamente es difícil auditar los sistemas de IA, y sospechamos que en la
práctica muchos de ellos no se auditan profundamente.
¿Pero
significa eso que los sistemas de IA pueden ser malvados? ¿No son más bien sus dueños los malvados?
El espíritu del Paleozoico
Pues
claro que sí, de momento sólo son malvados los dueños. Lo que hemos averiguado es
que los humanos ya construimos máquinas que aprenden, y cuyo funcionamiento muchas
veces nadie comprende en detalle. Pero
siguen siendo máquinas sin conciencia ni voluntad… ¿no?
Este es
el momento de nuestra narración en el que conviene pararse a pensar qué son
exactamente la conciencia y la voluntad.
Pero tranquilos, que no pensamos perdernos una clase de filosofía para
haceros perder el tiempo. Aquí damos
alimento para vuestra curiosidad, y dejamos el negocio de la orientación vital al
nutrido grupo de iluminados (a veces infraeequipados) que pueblan las tertulias televisivas. ¡Esta
es la mítica Gacetilla!
Pasados
los inevitables minutos publicitarios, volvamos a nuestro tema. El problema de cuestionarse la naturaleza de
la conciencia y la voluntad es que inevitablemente suele llevar a la
introspección psicológica, lo cual es el equivalente biológico de querer subir
hasta el tercer piso agarrándose uno mismo de las solapas y tirando hacia
arriba. Así no, animal. Hay que hacerlo desde fuera.
Pues vamos fuera. Un
científico marciano frío y desalmado que nos observase desde el espacio,
explicaría a sus colegas marcianos que la conciencia de uno mismo que tenemos
los terrícolas es el resultado evolutivo de nuestra necesidad de evitar
activamente que suframos daños físicos.
Digamos que el molusco paleozoico inconsciente que no se preocupaba por
el calor al acercarse a un volcán submarino, murió hervido y se extinguió. Su pariente el molusco paleozoico consciente,
por el contrario, reaccionó al inusual cambio térmico preocupándose por su
propia salud, dio un rodeo y sobrevivió.
En pocas palabras, ser consciente no es imprescindible, pero es bueno
para tu especie.
Bien,
pues observad que ya existe un tipo de máquinas diseñadas para preocuparse por
su propia salud, que son los drones militares.
Un dron militar suele ser un avión a control remoto, generalmente más orientado a
privar de salud al enemigo que a preocuparse por la suya propia. Sin embargo, su control remoto no funciona
siempre, porque es posible prescindir de él, porque no siempre es necesario, y porque
ocasionalmente puede incluso no estar disponible. Por ejemplo, un dron americano que despegue
desde la base de Diego García en mitad del Océano Indico para bombardear a unos
traviesos guerrilleros afganos, pasa horas en el aire volando autónomamente en
piloto automático, antes de que un operador tome el
control de la misión al acercarse a su objetivo.
Luego, puede
resultar que el dron pierda el contacto con su operador en plena acción de
combate, por efecto de contramedidas electrónicas del enemigo, por
ejemplo. En tal caso el dron, que es
relativamente barato pero no gratuito (cada Reaper americano cuesta unos 16 MUSD), lleva
incorporado un sistema informático que le permite al menos intentar volver a su
base autónomamente. Como veis, aunque no
puede decirse que el dron sufra mucho por amor, o recite a Dante Alighieri, sí
cabe suponer que nuestro científico marciano diría que tiene una autoconsciencia
parecida a la del molusco paleozoico que rodeaba volcanes.
Sin
embargo, es evidente que la protoconciencia que permite al dron volver a casa
no le va a llevar todavía a volverse loco, ni a aliarse con el Doctor No para matar a
James Bond y dominar el mundo, o al menos no próximamente. Pero justamente ahí está la frontera. En “próximamente”.
Nuevas especies
Los
drones caros son sistemas complejos, que se diseñan dentro de un proyecto con
especificaciones mínimas, y que una vez las cumplen se cambian poco para evitar
engorros. Los drones voladores tipo
Reaper, que están desplegados desde 2007, están basados en diseños muy
anteriores al despegue de la inteligencia artificial. Algunos de sus sistemas, tales como el
análisis fotográfico, pueden actualizarse modularmente con aplicaciones de IA,
pero eso es todo. Conciencia puede que
tengan, pero ciertamente no se trata de aparatos inteligentes.
Sin
embargo, los drones militares actualmente en diseño ya llevan inteligencia artificial
de forma nativa. Son especies
completamente nuevas. Más listos, más
fuertes, más aptos. Sobrevivirán más.
La diferencia entre la inteligencia nativa o sobrevenida puede ser total. Los drones inteligentes pueden no ser ya pájaros solitarios como el Reaper, sino enjambres de aeronaves más pequeñas, que se hablan y cooperan para la misión. Tanto EE.UU. como China han demostrado tener en desarrollo iniciativas en este sentido con obvio uso militar. A una orden, el enjambre de drones se pone a volar en círculo alrededor de la casa donde se guarece el enemigo, a la cual son capaces de disparar simultáneamente desde cualquier ángulo. Y lo hacen teniendo cuidado de no chocar entre si, y de no dispararse mutuamente.
Por
supuesto, una vez entrado en este terreno, los drones pueden hacer cosas mucho
más creativas militarmente, tales como conseguir que alguno de ellos penetre en
la defensa enemiga cargado de explosivo y se “suicide” para abatir al rival,
mientras el fuego de los demás corta la escapatoria del objetivo. O bien pueden vigilar una zona más amplia,
analizando cualquier objeto que deje una huella térmica mayor que un tamaño
prefijado. En fin, la pera.
Esos drones son inteligentes, para aprender con la práctica a qué distancias pueden
volar unos de otros sin chocar en condiciones de lluvia o viento, y tienen
la autoconciencia necesaria para apartarse del fuego enemigo maximizando su
supervivencialidad (este palabro nos va a costar un disgusto con la RAE, ya veréis). Aun así, no son Skynet, ni mucho menos.
Enjambre de drones chinos - no os lo perdáis
Pero no hemos terminado.
Despierta el monstruo de Frankenstein
Los
drones voladores no son el tipo más inteligente, por razones parecidas a las
que dictan que pocos pájaros se encuentren entre los animales más
inteligentes. El medio en el que se mueven los pájaros
exige unas condiciones físicas excepcionales (una relación masa-potencia muy
favorable, una estructura física muy condicionada por el vuelo, y mucha
resistencia al frío), pero no premia tanto la inteligencia. Si vuelas, puedes ser bastante memo y no pasa
nada (ahora el disgusto lo vamos a tener con el sindicato de pilotos SEPLA).
Sin
embargo, los nuevos drones no sólo serán aéreos. Y ahí sí que entramos en el territorio
Champions de la inteligencia artificial.
Los
drones militares terrestres actualmente en desarrollo deben caminar, porque el
terreno no siempre permitirá su desplazamiento sobre ruedas u orugas. Y caminar es una tarea complicada, porque
exige elegir el lugar donde se va a apoyar cada pata en términos de posición
espacial, textura y resistencia. Además,
cada paso requiere la realización de un análisis dinámico del equilibrio, para
entender de qué forma va a afectar el balanceo del cuerpo a los apoyos. Y la tarea se complica todavía más si la
marcha exige que no haya ningún pie apoyado en algún momento, por ejemplo durante la
carrera o en salto. Se trata pues de un
auténtico reto con infinitas posibilidades que un ordenador no puede… ¡Espera!
La marcha sobre tierra firme es una misión hecha a medida para la
inteligencia artificial.
Ya no son torpes, pero todavía no van armados...
Esta sí que es inteligencia de verdad. La inteligencia de un simple perro mecánico que pueda trotar, o desenvolverse por espacios donde no haya estado antes, está a mil años luz de los actuales Reaper. Y, de forma algo más preocupante, mil años luz más cerca de nosotros.
Esta sí que es inteligencia de verdad. La inteligencia de un simple perro mecánico que pueda trotar, o desenvolverse por espacios donde no haya estado antes, está a mil años luz de los actuales Reaper. Y, de forma algo más preocupante, mil años luz más cerca de nosotros.
Perro robótico se enfrenta a puerta, y llama a amigo. Qué miedo.
Resulta fácil prever como ese perro mecánico nativamente inteligente puede evolucionar rápidamente. Es evidente que la misma inteligencia artificial que le sirve para localizar ópticamente dónde realizar los apoyos de cada pata durante la marcha, puede utilizarse para identificar figuras humanas o de animales. En caso de un desarrollo militar, no cuesta nada pensar que el perro podría portar un sistema de arma de fuego dirigido también ópticamente.
Resulta fácil prever como ese perro mecánico nativamente inteligente puede evolucionar rápidamente. Es evidente que la misma inteligencia artificial que le sirve para localizar ópticamente dónde realizar los apoyos de cada pata durante la marcha, puede utilizarse para identificar figuras humanas o de animales. En caso de un desarrollo militar, no cuesta nada pensar que el perro podría portar un sistema de arma de fuego dirigido también ópticamente.
Pero
hay más. El perro podría fácilmente
reconocer enchufes donde recargarse de corriente autónomamente. Usando tecnología ya disponible, el perro
podría identificar rostros humanos, y entender conversaciones que oyera, o leer
texto escrito que viera. Mediante la
simple instalación de cámaras de visión nocturna, el perro podría actuar de
noche. Y mediante cámaras infrarrojas,
el perro podría identificar objetivos ocultos tras maleza u otros obstáculos. El perro puede comunicarse inalámbricamente
con otros iguales que él y, usando software no muy distinto al de los enjambres
de drones aéreos, podría actuar en manada contra un
objetivo identificado.
El perro
robótico, ese can a quien todos repentinamente encontramos
tan adorable. simpático y de infinita ternura, puede finalmente equiparse con software
de inteligencia artificial que le ayude a limitar los daños que pueda sufrir
durante una misión. Si dicho software
estuviera además acoplado a sensores colocados en la estructura del robot, que permitieran
discernir la violencia de eventuales impactos, o la gravedad de unos eventuales
daños, y estimar su efecto en términos de supervivencia… parece que ese análisis de datos podría empezar a llamarse “dolor”.
Skynet contra todos
Naturalmente,
incluso en caso de que tal perro robótico infernal llegase a desarrollarse para
usos militares, cabría esperar que su fabricación y reparación siguiese exigiendo
intervención humana… o quizá no.
Si
hablamos de un perro robótico militar que desplegar por millares de unidades en,
digamos, Afganistán, entonces tiene sentido que tales unidades vegan
asistidas por otras unidades robóticas de mantenimiento y reparación en el propio teatro de operaciones. Al fin y al cabo, hacer una soldadura,
instalar un sensor óptico o colocar una batería son tareas que los robots
llevan años haciendo en las fábricas, simplemente habría que instalar el equipo
adecuado en una plataforma semoviente autónoma.
¿Dónde
quedaría entonces el límite entre la reparación de un perro mecánico militar, y
la construcción de uno nuevo? Obviamente,
en el acceso a los componentes necesarios.
Por mucho que un eventual ejército de perros robóticos tuviese
autoconciencia y deseo de supervivencia, capacidad para aprender e incluso para
repararse, no habría forma de que pudiese mantenerse activo autónomamente.
¿O sí
la hay?
Despierta el monstruo de Frankenstein
Hasta
ahora, hemos limitado nuestro relato al fantástico mundo del perro robótico,
porque nos parece fácil visualizar a Toby, el perro asesino del muñeco satánico
Chucky. Sin embargo, la inteligencia
viene en formas muy distintas a las de un perro. O incluso mil perros.
Solemos asociar la inteligencia a animales dotados de un
sistema nervioso central de tamaño más o menos grande, pero la realidad es más polimórfica. Mientras que en el hombre el sistema nervioso
central contiene el 95% de la masa
neuronal, en el pulpo (bicho muy listo que aprende a abrir tapas de rosca
y memoriza laberintos) el sistema nervioso está en gran medida distribuido por
los tentáculos, mientras el sistema central contiene sólo el 30% de las neuronas. Tan autónomas son sus patas, que un pulpo sólo
puede operar con destreza las que tiene ante su vista, pero no las que no ve.
¿Qué
piensa pues el pulpo de si mismo? ¿Se ve
como uno, o como muchos? ¿Si pierde un
tentáculo, se pierden también los recuerdos asociados a ese tentáculo?
Pero el
asunto se complica aun más.
Los insectos crean colonias en las cuales cada individuo tiene una
función especializada. En el caso de las
abejas, las operarias recogen polen para que coman todas. ¿Y si se cansan? ¿Cómo establecen cual es el equilibrio correcto
entre la conservación propia y el desempeño de su función en la colmena? ¿Por qué aguijonean las abejas a los intrusos,
si saben que perderán su aguijón y morirán?
¿No sería lógico que intentasen sobrevivir? ¿Son entonces heróicas, o simplemente no
piensan en si mismas más de lo que una uña humana piensa en si misma cuando usamos
el cortauñas?
Bueno,
pues volviendo desde fabulandia de nuevo hasta nuestro humilde relato sobre inteligencia
artificial, pensad en qué formas podría adoptar más allá de la del perro. Un sistema de inteligencia artificial, dotado de criterio
de supervivencia por motivos militares o para facilitar un hackeo (otra vez se
nos echa encima la RAE, seguro), podría llegar a acceder al núcleo informático
de un banco, técnicamente conocido con el término inglés “core” bancario.
Los cores
bancarios son sistemas que parten de un diseño muy reglado, pero que luego
evolucionan de forma tan compleja que son casi imposibles de auditar. Este mes ha sido detenido en San Juan (Alicante)
un ciberdelincuente que llevaba años infiltrado en cores bancarios, sin que
hubiese podido ser localizado hasta ahora.
Pero lo que es más sorprendente, es que se cree que este individuo ha
robado más de 1.000 MEUR.
Alto
ahí ¿cómo que mil kilos?. Pues no, no hay error. Hablamos de 1.000 millones de Euros, pero el
número no es lo verdaderamente importante de esa frase. Lo verdaderamente importante es el predicado: “se cree”.
Los cores bancarios son sistemas tan complejos que es difícil incluso
saber cuanto dinero se ha llevado este (execrable, pero admirablemente hábil)
ladrón.
Ahora
imaginaos que un sistema de inteligencia artificial programado para
autopreservarse y sobrevivir, consiga acceso simultáneo a un ejército de drones
y a un core bancario, que le permita transferir dinero contante y sonante para
garantizarse el suministro de los repuestos que su fuerza militar pueda
necesitar. ¿Cuánto tiempo tardaría en
aprender cual es la mejor combinación de fuerza y dinero para obtener esos
suministros?
Tal vez
entonces sí haya una Singularidad después de todo, y la historia acabe escribiéndose
así:
“Skynet
adquirió conciencia de si mismo a las 8 horas y 11 minutos del 19 de Abril de
2021…”
Sólo
que en ese caso no serán ya en las salas de cine donde se encuentren los
humanos aterrorizados. Duerme bien esta
noche, John Connor.