![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjhHQ631AMX3_vc0UaNtXxibpOmvj3DR1RNWTIicw9-aySu_G0MRwdDB0wLc1zwezbST5ZgMcs2y76g2SaG-VfMrEW8zq0DO5lo2VTRmDLCVrZ32dfajQcEIuVYpdsgYuhgLzSLhOQCpfY/s320/inteligencia-artificial.jpg)
Ahora que ha muerto el creador del término inteligencia
Artificial, podemos sacar a la palestra conceptos olvidados del supuesto avance
tecnológico que iba a ser en nuestros días. Hace unas décadas, se imaginaba el
futuro para los años que ahora vivimos, y todo se imaginaba en ese tono de
películas de ciencia ficción: coches sin ruedas, naves espaciales por todos
lados, todo con botones y automatismos varios y, la clave, robots. Robots a los
que se les dotara de una capacidad para tomar decisiones y tener opinión,
sentimientos. Robots que estuvieran a nuestro servicio y nunca pudieran estar
en nuestra contra. Para que un robot pudiera tomar decisiones sin estar basadas
en patrones programados sino en la experiencia que podían adquirir. La manera
era dotarles de una especie de cerebro, de conciencia: la Inteligencia
Artificial. Aunque resulta paradójico que humanos, tan a menudo carentes de
toda inteligencia natural, sean capaces de crear una estructura inteligente
para un cacharro inerte. Los robots, planteaban a la humanidad un grave
problema, que residía en el miedo a ser atacado por ellos, a que se revelasen y
acabasen con las personas. Otro invento surgió entonces fruto del gran escritor
y científico Isaac Asimov: la Robótica. Esto es, aquello que estudia los
robots, su comportamiento. Y la contribución más importante fue la formulación
de las 3 leyes de la Robótica, por las que las personas podían sentirse a
salvo. Son:
1. Un robot no
puede hacer
daño
a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2. Un robot
debe obedecer las
órdenes
dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con
la Primera Ley.
3. Un robot debe proteger su propia existencia en la medida en que
esta protección no
entre en conflicto con la Primera o la Segunda Ley.
A pesar de ello, siempre surgieron diferencias y dudas pues, a fin de
cuentas, las máquinas estaban creadas por seres humanos, máximo ejemplo de
imperfección y maldad. ¿Hasta qué punto puede un hombre crear una máquina
inteligente perfecta, despojada de la maldad propia de nuestra condición?
¿Bastan las leyes de la robótica para estar a salvo de nuestras propias
creaciones? Según Asimov, el cerebro positrónico (un positrón es una partícula
elemental igual que el electrón pero con carga positiva) de los robots era lo
adecuado. No podían violar las leyes porque estaban implementadas en su código,
como un gen en nosotros. Por otro lado, los robots, como máquinas, tienen un
botón de apagado. Pero ¿hasta qué punto un humano está legitimado a apagar a un
robot, máquina con consciencia, sentimientos, que tiene la capacidad de amar y
cuidar? ¿No debería pues existir una ley que defienda a los robots de los
humanos? Son
máquinas que no sólo piensan, sino que tienen un "gen" que les impide
dañarnos y que les obliga a dar su vida si algo nos pudiera ocurrir. Son una
especie de guardianes, de ángeles protectores, no sólo sirvientes. Deberían
estar protegidos de nuestras envidias y maldades, ya que seguro que al final,
nos sentiríamos inferiores a ellos, y quedarían relegados al olvido en un rincón
del garaje. En cualquier caso, la realidad nos devuelve al duro pasado
tecnológico, pues nuestros coches siguen teniendo ruedas (y caras), no tenemos
naves porque además son muy caras, y el único robot que manejamos es la
Thermomix. Y dista mucho de ser un elemento inteligente, porque sin el librito
de recetas, no consigues ni ponerla en marcha. Lo curioso, es que esas tres
leyes de Asimov, tan presentes en libros y películas (Yo, Robot es un ejemplo
de relato de Asimov convertido en película), siguen siendo totalmente vigentes,
ya que aún nadie ha sido capaz de construir una máquina lo suficientemente
avanzada que las necesite y las ponga en duda. Por tanto, seguimos siendo los
únicos seres inteligentes conocidos, algo que no debería dejarnos tranquilos.
La versión bonita:
http://ulises26.blogspot.com/2011/10/ay.html