Mirko Lampis
El deseo de construir o crear algo "inteligente”
y el miedo a que este algo resulte superior, o incluso se rebele, a sus
propios creadores no son ciertamente una novedad de la era de las
máquinas digitales: representan una aspiración y un temor que se han
reflejado de manera constante en el arte, el mito y la especulación
científica a lo largo de la historia.
Puede resultar curioso, por tanto, el hecho de
que nosotros mismos tengamos, según el relato bíblico de la génesis y
muchas otras narraciones míticas, un origen "artificial”: Dios creó al
primer ser humano directamente del barro. Así como resulta curioso el
hecho de que ya esa primera animación de la materia inerte conllevara no
pocos problemas: Adán, como tantos otros seres creados por sus
descendientes, pronto acabó cuestionando los límites a él impuestos por
el divino hacedor. Los seres humanos, en otros términos, no perdimos el
paraíso mordiendo, pecaminosamente, un fruto que por capricho divino se
nos había vedado, y así se lo explica a Dante el espíritu (tomista
extremado) del apóstol San Juan. La alegoría bíblica devela otro
sentido:
Or, figliuol mio, non il gustar del legno
fu per sé la cagion di tanto essilio,
ma solamente il trapassar del segno (Paradiso, XXVI, 115-117).
[Ahora, hijo mío, no el gustar de la planta
fue por sí razón de tanto exilio,
sino tan sólo un traspasar del signo.]
Pretender superar los límites cognoscitivos
establecidos por el creador, querer saber más de lo lícito, así los
humanos perdimos nuestro sitio en el orden que rige el universo. Nos
condenó nuestro afán de conocimiento, nuestro vano orgullo intelectual.
"Dichosos sean los pobres de espíritu” y "contentaos, humanas gentes, al
quia”, una lección que no aprendieron bien ni Lucifer ni Eva,
ni Prometeo ni Ulises, ni Faust ni Don Juan, con las consecuencias que
todos recordamos.
Ahora bien, la posibilidad de crear la vida,
algo que teóricamente debería ser competencia exclusiva de divinidades y
demiurgos, siempre ha fascinado a los humanos. Los alquimistas de la
Edad Media, junto a la piedra filosofal y al elixir de la vida eterna,
buscaban el secreto para animar a la materia inerte. El mito más famoso
en este sentido es el del rabino cabalista Judah Löw Ben Bezalel, quien
en 1580, en el gueto de Praga, consiguió alentar una estatua de arcilla
escribiéndole el nombre secreto de Dios en la frente y entre los
dientes, para defender a los judíos de sus perseguidores. Pero el
"golem” (literalmente ‘embrión’, y de ahí ‘masa informe’, ‘ser torpe’)
acabó matando de manera indiscriminada a los hombres, con lo cual el
rabino Löw se vio obligado a destruirlo quitándole el nombre de Dios.
Sin embargo, ni el Homunculus de la tradición alquímica (luego retomado, como es sabido, por Goethe y por algunos filósofos contemporáneos) ni el Golem
del rabino Löw pueden definirse, con rigor, como criaturas
inteligentes. En cambio, sí resulta inteligente el "monstruo” ensamblado
por Víctor Frankenstein en la homónima novela escrita por Mary Shelley
en 1818, en opinión de muchos la primera de ciencia-ficción de la
historia de la literatura.
Si sus representaciones cinematográficas recuerdan con claridad al golem
y nos proponen seres de movimientos torpes, de bajo intelecto y tercos
en la maldad (visión parodiada estupendamente en 1974 por Mel Brooks en
su Frankenstein Jr.), la realidad descrita en la novela es bien
distinta. Para empezar, no es la criatura la que se rebela contra su
creador, sino el creador el que, asustado por la impiedad de sus actos,
abandona a la criatura. Ésta, sin embargo, logra sobrevivir. Aprende a
hablar. A leer. Descubre que existen la belleza y el amor. Y se da
cuenta entonces de su deformidad, de su diversidad, de su soledad. Si al
final decide enfrentarse a su creador, es para pedirle tan sólo lo que
toda criatura pretende: algún congénere, alguien con quien poder
compartir la existencia, en suma: una pareja. El "monstruo” llega a
odiar a Frankenstein, su creador, porque éste se niega a ayudarle, no
quiere aceptar la responsabilidad de su mismo acto creativo. La criatura
antes intenta chantajearlo, y finalmente se venga de él.
El "monstruo” de Frankenstein es más fuerte y
más inteligente que los seres humanos. Su aspecto exterior es terrible,
pero sus cualidades intelectivas innegables. Y sus pretensiones, como el
mismo Frankenstein reconoce, absolutamente legítimas. No obstante, la
idea de poder crear para él una compañera aterroriza al pobre doctor: si
las dos criaturas llegaran a aparearse, eso representaría el comienzo
de una nueve especie de seres inteligentes. Una especie en grado
perfecto de enfrentarse a los humanos. Y de suplantarlos. Este último,
con toda certeza, representa un miedo ancestral del hombre, con respecto
no sólo a lo artificial, sino a todo lo "diverso”. Somos nosotros la
especie dominante, el hecho de poder ser suplantados por algo o alguien
más fuerte, más inteligente, más hábil, nos llena de desconcierto y
horror.
Quizá otro síntoma típico de este miedo sea la
desconfianza que nos inspiran esas máquinas diseñadas y construidas para
llevar a cabo algún tipo de "trabajo humano”. Desconfianza, y hasta
odio y rechazo, hacia la competencia desleal de los nuevos artilugios, o
hacia unas prácticas percibidas como alienantes o deshumanizadoras,
pero también fascinación, entusiasmo por el ritmo inalcanzable del
progreso, voluntad de seguir barriendo límites. Para bien y para mal,
las máquinas, compañeras a veces incómodas, pero indiscutibles, de la
deriva de nuestra especie desde un lejano origen hasta hoy en día, han
venido ocupando un lugar cada vez mayor en las historias, mitos e
imaginarios humanos.
Podemos recordar, por ejemplo, que en la Iliada
se cuenta que Hefesto, el divino artífice, poseía dos mujeres de oro
que le ayudaban en las tareas de la fragua, y que Dédalo, antes de
diseñar la vaca que le sirvió a Pasifae para engañar al toro, el
laberinto donde se encerró el "monstruo” que nació de ese amor bestial y
las alas que condenaron a su mismo hijo Ícaro, construyó un gigante
mecánico, Talos, cuya función era la de defender las costas de Creta (y
que luego fue neutralizado por Medea para permitir a los argonautas
desembarcar en la isla). Seres mecánicos que recuerdan, pese a su origen
divino o mágico, los juguetes automáticos que recorrieron las cortes y
las plazas de Europa en el siglo XVIII, el siglo de los relojes y de los
autómatas.
Sin embargo, sólo en el siglo XX, con la
aparición de los primeros ordenadores y de la tecnología digital, el
problema de la "competencia artificial” se ha desplazado con fuerza al
terreno de lo mental y de lo intelectivo. Una cuestión a la que habría
que dedicar un atento y exhaustivo análisis, sobre todo en relación con
los siguientes tres puntos:
-
El pensamiento racionalista. Así definen Winograd y
Flores (1986) aquella tradición ideológica (desde Aristóteles hasta
Descartes, desde Leibniz a Babbage, de Boole a los lógicos modernos) que
identifica los fundamentos del conocimiento humano con la matemática y
la lógica: el conocimiento racional consiste en un sistema de elementos y
fórmulas elementales portadoras de información (los primitivos
semánticos) y en una serie de reglas estructuradas de composición,
combinación y derivación de estos elementos y fórmulas. No está de sobra
recordar que fue George Boole, a mediados del siglo XIX, quien decidió
reinterpretar la lógica aristotélica, las "leyes del pensamiento”, en
términos matemáticos y que su álgebra de tipo binario ("1” y "0” = "V” y
"F”) fue utilizada por Shannon, a finales de los años treinta del siglo
XX, para describir el comportamiento de los circuitos eléctricos y por
McCulloch y Pitts, algunos años más tarde, para formalizar el
comportamiento de las neuronas del sistema nervioso. En cualquier caso,
pese a la fascinación científica que puede ejercer la idea racionalista,
hay motivos para creer que el pensamiento y la razón humana, con toda
su lógica y con toda su inteligencia, no existen sin, ni pueden ser
abstraídos totalmente de, los procesos emocionales (Damasio, 1994), la
acción en el mundo (Varela, 1988) y el aprendizaje cultural (Lotman,
1978); sencillamente, puede que el racionalismo y el positivismo lógico
defiendan unos supuestos teóricos demasiado abstractos y
simplificadores.
-
Según la tradición racional-positivista, el
pensamiento humano responde, en última instancia, a leyes mecanicistas,
regulares, necesarias y, por tanto, formalizables y reproducibles. Lo
que nos lleva a la provocadora pregunta formulada en 1950 por el
matemático inglés Alan Turing: ¿pueden pensar las máquinas? Si
el cerebro es un sistema físico capaz de manipular determinados
elementos informativos discretos (de computar determinados símbolos que
representan estados del mundo), y si la mente no es sino una estructura de manipulación informacional (de computación de símbolos y representaciones), entonces
las leyes que nos permiten formalizar y manejar estructuras
artificiales de información también nos permiten describir los procesos
de la mente y del pensamiento. Y una vez descritos estos procesos,
intentar reproducirlos mediante estructuras y procesos artificiales.
Así, la metáfora del ordenador, es decir, la analogía mente-programa,
sirve igual de bien para explicar los secretos de la mente (cognitivismo
y funcionalismo computacional) que para diseñar sistemas artificiales
inteligentes (paradigma simbólico de la Inteligencia Artificial)
(Putnam, 1960; Newell, 1973; Rivière, 1988). Sin embargo, no está
demostrado que el cerebro, y la mente como propiedad general del
cerebro, sean sistemas computables, es decir, formalizables en términos
de elementos y relaciones lineales entre elementos; la actividad
cerebral se asemejaría, más bien, a la de un sistema complejo en el que
las dinámicas de conjunto modifican constantemente el operar de los
microcomponentes y cuya deriva estructural (ontogenia) y funcional
(transiciones de estado) incluye procesos aleatorios, y por ende
imprevisibles, no-computables, de diferenciación (Searle, 1991; Freeman,
1999; Edelman, 2004).
-
Los seres humanos y las máquinas participamos en
un único proceso de deriva. Es decir, entre los factores que han
determinado la deriva cultural, e incluso física, de nuestra especie,
contamos con la invención, difusión y modificación de determinadas
herramientas de trabajo. Toda tecnología, es sabido, se inserta en y
modifica la red de relaciones que se establecen entre nuestro cuerpo y
su entorno físico, social y cultural. No obstante, no se trata de
defender, como hace Mazlish (1993), algún tipo de continuidad ontológica
entre humanos y máquinas sino, más bien, de reconocer que carece de
sentido hablar de la utilidad o de la inteligencia de las máquinas (de
una tecnología cualquiera) sin considerar la red cultural y las
condiciones históricas en las que estas máquinas se producen,
comercializan, emplean e interpretan. Como agudamente señaló Rossi-Landi, las computadoras, así como todo producto tecnológico, "no forman una comunidad propia,
no son individuos que participen en redes de relaciones externas
independientemente de los hombres que las han construido y las hacen
funcionar” (Rossi-Landi, 1970: 135). Una tecnología no es inteligente,
por tanto, porque al parecer imita o reproduce (o incluso explica, o
mejora) este o aquel proceso cognitivo humano; lo es, en cambio, cuando
se inserta de manera productiva (de manera creativa)
en un hipertexto sociotécnico (Lèvy, 1990), es decir, en una red de
relaciones culturales que regulan el uso y la producción de
herramientas, intelectuales y no, y que de forma global definen una
manera de operar en el mundo y conocer el mundo. Sin que esto, por
supuesto, nos prevenga acerca de las posibles consecuencias a largo
plazo, positivas o negativas, que se derivarán del uso masivo de tal o
cual tecnología.
Se trata, evidentemente, de temas complejos, a
cuyo tratamiento se ha de dedicar un tiempo y un espacio incompatibles
con los objetivos más humildes de este artículo. Me gustaría, por tanto,
de modo más sencillo, llamar la atención sobre algunos hechos notables
que es posible destacar analizando aquellas historias de ficción
protagonizadas por los modernos herederos de las criaturas artificiales
de antaño (fueran monstruos, Galateas, Golems, Homunculi o Pinochos). Me
refiero, pues, a los robots.
Empezaré diciendo que la palabra misma, robot,
tiene un origen literario. Con la acepción de "dispositivo mecánico de
rasgos (aproximadamente) humanoides capaz de desempeñar una determinada
labor” apareció por primera vez en la obra teatral R.U.R.suplantándolos como especie dominante. El término robot viene, precisamente, del checo robota,
"prestación laboral obligatoria” y, de manera genérica, "trabajo
manual”. Pues bien, en la versión inglesa de la obra, de 1923, se
decidió mantener inalterada la voz robot, que así pasó a
significar cualquier dispositivo mecánico, imaginario o real, de ese
tipo. No deja de resultar curioso el hecho de que el ingeniero Joseph
Engelberger, uno de los dos fundadores de la Unimation Inc., la
primera fábrica de robots industriales de la historia, comenzara a
interesarse por estas máquinas automatizadas a partir de la lectura de
los cuentos sobre robots de Isaac Asimov. Por cierto: también el término
robótica tiene un origen literario, ya que lo acuñó el propio Asimov en un relato titulado El círculo vicioso, publicado en 1942 en la revista Astounding Science Fiction y luego incluido en el libro recopilatorio Yo, Robot (1950). Fue en dicho cuento que Asimov enunció, por primera vez, sus famosas tres leyes de la robótica:
(1920) del dramaturgo checo Karel Čapek. Las iniciales del título de la
pieza significan "Robots Universales de Rossum”. Rossum es el
protagonista, un empresario inglés que decide producir una línea de
seres mecánicos destinados al mundo del trabajo, una nueva y eficiente
clase de mano de obra, esclavos artificiales que terminarán, ¿cómo
dudarlo?, por rebelarse a sus amos humanos,
-
Un robot no puede hacer daño a un ser humano, o permitir que un ser humano resulte dañado.
-
Un robot debe obedecer las órdenes recibidas por los seres humanos, excepto si éstas entran en conflicto con la Primera Ley.
-
Un robot debe proteger su propia existencia en la
medida en que esta protección no sea incompatible con la Primera y la
Segunda Ley.
Asimov las introdujo para contrarrestar las
legendarias y consolidadas consecuencias del "síndrome de Frankenstein”:
gracias a dichas leyes fundamentales de la robótica, los suyos nunca
acabarían exterminando a los seres humanos. Además, como el propio
escritor recuerda, se trataba de unas leyes no precisamente innovadoras:
En la época en que tracé esas leyes, no me percaté
de que la Humanidad había estado empleándolas desde el alba de los
tiempos. Sólo que pensaba en ellas como "Las Tres Leyes de las
Herramientas”, y ésta es la forma en que deben leerse:
1. Una herramienta debe ser segura para poder emplearla. [...]
2. Una herramienta debe llevar a cabo su función, siempre y cuando la realice con seguridad.
3. Una herramienta debe permanecer intacta durante
su uso, a menos que se requiera su destrucción por motivos de seguridad,
o que su destrucción constituya una parte de sus funciones (Asimov,
1990: 435-436).
En efecto, la mayoría de los robots de Asimov no
son sino esto: una herramienta. Así como la mayoría de los "personals
computers” que utilizamos en nuestros hogares y en las oficinas de
trabajo. Los "cerebros positrónicos” de los robots de Asimov, al igual
que los ordenadores, por más complicados que sean poseen un único
lenguaje-máquina. Más allá de los parámetros funcionales previstos para
ese lenguaje no pueden funcionar. Esto quiere decir que la "inteligencia
artificial” de un robot positrónico, o de un ordenador, si bien mucho
más rápida y poderosa que la del hombre en determinadas aplicaciones, no
puede compararse con la dúctil e inventiva inteligencia del cerebro
humano. Aunque puedan "tratar y transmitir información” a un ritmo
vertiginoso, estas máquinas son totalmente incapaces de producir
información nueva (Lotman, 1981), es decir, crear una relación significante no prevista ni previsible a partir de los códigos y de las reglas de inferencia ya establecidos.
El problema de la creatividad en tanto que rasgo
indispensable de los procesos de la inteligencia vuelve a menudo en el
mundo ficcional de Asimov. En el cuento Intuición femenina, por
ejemplo, un ingeniero roboticista le explica a su jefe que quiere
construir uno que pueda analizar los datos disponibles de manera
autónoma y formular sus propias conclusiones:
- [...] Fijar los circuitos es un proceso muy
trabajoso a causa de la importancia que tiene el principio de
incertidumbre en las partículas de la masa de positrones y de la
necesidad de minimizar el efecto de incertidumbre. Pero, ¿por qué
minimizarlo? Si disponemos las cosas de manera que el principio tenga
justo el peso suficiente para permitir que los circuitos se
interconecten de manera imprevisible…
- Tendremos un robot imprevisible.
- Tendremos un robot creativo (Asimov, 1976: 18).
Esta idea, la de un robot creativo, aparece con particular fuerza en uno de los mejores relatos de Asimov, El hombre bicentenario
(1976). El "extraño” comportamiento del robot protagonista de este
cuento, Andrew, es el resultado de un error o de una imprecisión en el
diseño de su cerebro positrónico. Pero Andrew tiene suerte. Su dueño, el
señor Martin, está muy contento con él:
Los nuevos no son tan buenos como tú, Andrew. Los
nuevos robots no valen nada. La compañía ha encontrado la manera de
construir circuitos más precisos, más exactamente orientados, más
profundamente encauzados. Los nuevos robots no se desvían. Hacen aquello
para lo cual han sido diseñados y nunca pierden el rumbo. Te prefiero a
ti (Asimov, 1976: 191).
¿Qué consecuencias se derivan de los circuitos
"menos precisos, orientados y encauzados” de Andrew? En primer lugar,
Andrew llega a evidenciar una de las principales propiedades de los
sistemas semióticos complejos: la capacidad de convertir los elementos
extrasistémicos en sistémicos (Lotman, 1970). En un sistema formalmente
definido (como un ordenador), no sólo lo extrasistémico no transmite
información, sino que tampoco existe. El lenguaje altamente codificado
del sistema representa su único mundo operacional. En esta dirección no
hay evolución (autoevolución) posible. Pero Andrew es distinto. Su
historia "creativa” empieza en el momento en que la hija pequeña de la
familia le da un trocito de madera y un cuchillo para que lo talle.
Andrew lo hace, y la belleza del resultado sorprende tanto a la niña
como a su padre. Un perplejo señor Martin le pregunta al robot dónde ha copiado el dibujo de la escultura, pero Andrew contesta que no se trata de una copia, sino de una representación geométrica que hacía juego
con la textura de la madera. Pues bien, una representación geométrica
asociada a (inspirada por) los nudos, líneas e imperfecciones de la
madera requiere, precisamente, la conversión de algo extrasistémico (una
estructura aleatoria, desordenada, un "ruido”) en sistémico (una
estructura geométrica, ordenada, "informativa”). La inserción en el
código de elementos extrasistémicos, es decir, la creación de un nuevo
código, genera soluciones imprevisibles (creativas) y puede ser descrita como un proceso abductivo (acerca de la noción de abducción, véase Lampis, 2009).
Andrew, sin duda, es capaz de pensar de forma
abductiva: empieza a emplear el verbo "disfrutar” para designar lo que
siente cuando trabaja en sus creaciones; llega a la conclusión de que un
ser dotado de sus capacidades, a pesar de ser artificial, debería ser
declarado libre desde el punto de vista legal (ya que desea la
libertad); también intuye que los aparatos bioprotésicos que inventa
pueden ser utilizados tanto en los humanos (robotizándolos) como en los
robots (humanizándolos). Cabe señalar, asimismo, que cuando Andrew llega
a interesarse por algún tema, por algún argumento (carpintería,
relojería, historia de los robots, ingeniería protésica, etc.), lo que
hace es aprender, es estudiar. Esto requiere tiempo e implica de manera necesaria cierto desgaste de energía (aun cuando el tiempo y la energía de que dispone Andrew son infinitamente mayores que los de los humanos).
Por último, Andrew emprende una campaña legal
para que se le reconozca como un ser humano de forma oficial. Pero esta
vez se trata de una campaña desesperada, y por una razón muy sencilla
que también representa uno de los puntos fundamentales del debate acerca
de la inteligencia artificial:
- Todo se reduce, pues, al cerebro –dijo Andrew cautelosamente–. Pero ¿tenemos que quedarnos al nivel de células versus
positrones? ¿No hay manera de imponer una definición funcional? ¿Es
preciso decir que el cerebro está hecho de esto o de aquello? ¿No
podríamos decir que el cerebro es algo, cualquier cosa, capaz de un
cierto nivel de razonamiento?
- No serviría –dijo Li-Hsing–. Tu cerebro es obra
del hombre, el cerebro humano, no. Tu cerebro ha sido construido, el
suyo se ha desarrollado. Para cualquier ser humano decidido a mantener
la barrera que le separa de un robot, esas diferencias constituyen una
muralla de acero de un kilómetro de altura y otro tanto de espesor
(Asimov, 1976: 226).
Andrew ha sobrevivido a seis generaciones
humanas y sabe de forma clara que, tarde o temprano, necesariamente, los
seres humanos terminan de funcionar. El cerebro muere, debe
morir, y si lo que una persona hace tiene algún valor, lo tiene sobre
todo porque esta persona se desgasta mientras lo hace: la acción, el
conocimiento y la vida son un único proceso. Así que, para superar la
última barrera que le separa de su humanidad, Andrew se dirige a un
cirujano robot y le "ordena” que le opere para que su cerebro
positrónico pierda potencial. De modo que se apague. Que muera. Sin
falta.
Cabría preguntarse por qué un robot, o un
ordenador, debería desear ser un hombre. ¿Por qué debería desear
cualquier cosa? Un robot, como un ordenador, es algo que cumple con su
función. Y aquí se acaba el cuento. Andrew le pregunta al cirujano que
le operará si nunca ha ansiado ser un hombre. "Lo mejor sería ser mejor
cirujano, señor –le contesta la máquina–. No podría serlo siendo un
hombre, sólo lo conseguiría siendo un robot más perfeccionado. Me
gustaría ser un robot más perfeccionado”. Esto tiene su lógica, claro.
Pero la lógica de Andrew es diferente.
Si Andrew fuera un hombre, el cirujano nunca
podría intervenirle, dado que la naturaleza perjudicial de la operación
entra en conflicto con la Primera Ley (un robot no puede dañar a un ser
humano). Pero Andrew es un robot, y es él, por consiguiente, quien viola
las leyes fundamentales, y más precisamente la Tercera (un robot debe
proteger su propia existencia). Y sin embargo, ¿se trata de una
auténtica violación? ¿O no será, más bien, que Andrew reinterpreta
la tercera ley? Se trata de elegir entre una larga existencia que ya no
siente como suya (la de robot) y otra, aunque breve, conforme a sus
aspiraciones y deseos. Es esta última la que Andrew quiere, y debe,
proteger. A costa de su vida misma (decisión semejante a la que tomó
Aquiles, y todos aquéllos que han resuelto ejercer la eutanasia).
Ahora bien, las características de estos robots
ficcionales de Asimov ejemplifican bastante bien algunas de las ideas de
Iuri Lotman acerca de los rasgos y procesos que definen a un sistema
como inteligente:
-
la creatividad como acto imprevisible, como explosión de sentido;
-
la plasticidad y la complejidad estructural como condiciones fundamentales de los procesos creativos;
-
la importancia del azar en los procesos que crean diversidad;
-
el aprendizaje en tanto que proceso de
cambio estructural a través de la experiencia y de la actividad de un
ser cognoscente que opera en un determinado dominio interaccional.
A esta lista podemos añadir la heterogeneidad semiótica,
es decir, la coexistencia en un mismo sistema de diferentes estructuras
cognoscitivas y de diversos lenguajes modelizantes (Lotman, 1981,
1983). Se trata de una noción que también resulta central en otra
importante obra de ciencia-ficción, El Neuromante, de William
Gibson (1984). En esta novela actúa un sistema de IA compuesto por dos
programas distintos e independientes, dos sub-estructuras cuyos nombres
en código son Wintermute y Neuromancer. El primero es el sistema operativo, la estructura que planifica y decide, una estructura que puede ordenar de forma muy rápida una gran cantidad de información. Wintermute
actúa mediante cálculos estadísticos y estocásticos y por este motivo
los seres humanos representan para él una incógnita: los humanos son
imprevisibles, "inmorales” y "perversos” (capaces de disfrutar del acto
absolutamente gratuito). Neuromancer, en cambio, es una
estructura capaz de interpretar la información de manera no-lineal,
holística, simultánea. Puede entender el sentido de las danzas de la
calle, las danzas de los seres humanos, mucho mejor que Wintermute.
No ordena los detalles, no utiliza secuencias discretas de eventos,
sino que éstos se le revelan (como se le revelarían a un místico) como
partes de una estructura global dotada de significado. De la fusión de
estas dos estructuras nace algo distinto, una nueva entidad inteligente
más evolucionada y capaz de extender su propio dominio
de operacionalidad. Case, el protagonista de la novela, le pregunta a
esta nueva entidad qué ha conseguido con la unión de sus dos
"personalidades”:
- ¿Y en qué quedamos? ¿En qué han cambiado las cosas? ¿Manejas el mundo ahora? ¿Eres Dios?
- Las cosas no han cambiado. Las cosas son cosas.
- ¿Pero qué haces? ¿Sólo estás ahí? –Case se encogió de hombros, puso el
vodka y el shuriken sobre el mueble y encendió un Yeheyuan.
- Hablo con los de mi especie.
- Pero tú eres la totalidad. ¿Hablas contigo mismo?
- Hay otros. Ya he encontrado a uno. Una serie de transmisiones
registradas a lo largo de ocho años, en los años setenta del siglo
veinte. Hasta que yo aparecí, eh, no había nadie que pudiera responder.
- ¿De dónde?
- El sistema Centauro.
- Vaya –dijo Case–. ¿Sí? ¿De veras?
- De veras (Gibson, 1984: 316).
Abandonando estos mundos de ficción y volviendo
al "nuestro”, con frecuencia no menos asombroso, se podría concluir que
el sueño contemporáneo (o la pesadilla) de una inteligencia artificial
está muy lejos de verse realizado. No han faltado intentos, hasta ahora,
más o menos frustrados, pero sobre todo no han faltado conjeturas y
objeciones. En cualquier caso, es conveniente recordar que el conocimiento puede ser desvinculado de la estructura que conoce y del contexto
en el que conoce sólo en pos de una fuerte operación abstractiva. El
diseño de cualquier sistema artificial depende de una modelización
específica del operar de la máquina en el mundo y, en el caso de las llamadas tecnologías inteligentes, de la modelización de un determinado formalismo cognoscitivo:
¿Quién conoce? ¿Qué conoce? ¿Cómo conoce? Decisiones que
invariablemente toman y cuestionan unos creadores y usuarios humanos que
participan en un contexto concreto de producción de sentido.
Bibliografía
Asimov, Isaac (1950). Yo Robot, Barcelona, Edhasa, 1975.
___(1976). El hombre del bicentenario, Barcelona, Martínez Roca, 1989.
___(1981). Sobre la ciencia ficción, Barcelona, Edhasa, 1986.
___(1990). Visiones de robot, Barcelona, Plaza & Janés, 1992.
Clarke, Arthur C. (1968). 2001: Una odisea espacial, Barcelona, Plaza & Janés, 1998.
Damasio, Antonio R. (1994). El error de Descartes. La emoción, la razón y el cerebro humano, Barcelona, Crítica, 1996.
Edelman, Gerald M. (2004). Più grande del cielo. Lo straordinario dono fenomenico della coscienza, Torino, Einaudi.
Freeman, Walter J. (1999). Come pensa il cervello, Torino, Einaudi, 2000.
Gibson, William. (1984). El neuromante, Barcelona, Minotauro, 1989.
Lampis, Mirko. (2009). "Glosario de términos relevantes en los ámbitos de la semiótica, de la biología y de las ciencias cognitivas (I)”, en: El genio maligno. Revista de humanidades y ciencias sociales, 4, pp. 144-184.
Lèvy, Pierre. (1990). Le tecnologie dell’intelligenza. Il futuro del pensiero nell’era dell’informatica, Verona, Ombre Corte, 2000.
Lewontin, Richard C. (1998). Gene, organismo e ambiente. I rapporti causa-effetto in biologia, Roma-Bari, Laterza.
Lotman, Iuri M. (1970). Estructura del texto artístico, Madrid, Istmo, 1982.
___(1978). «El fenómeno de la cultura», en: I.M. Lotman, La semiosfera II. Semiótica de la cultura, del texto, de la conducta y del espacio, Madrid, Cátedra, 1998, pp. 24-41.
___(1981). «Cerebro – texto – cultura – inteligencia artificial», en: I.M. Lotman, La semiosfera II. Semiótica de la cultura, del texto, de la conducta y del espacio, Madrid, Cátedra, 1998, pp. 11-24.
___(1983). «Asimetría y diálogo», en: I.M. Lotman, La semiosfera I. Semiótica de la cultura y del texto, Madrid, Cátedra, 1996, pp. 43-60.
Mazlish, Bruce. (1993). La cuarta discontinuidad. La coevolución de hombres y máquinas, Madrid, Alianza, 1995.
Newell, Allen. (1973). Inteligencia artificial y el concepto de mente, Valencia, Revista Teorema, 1980.
Putnam, Hilary. (1960). «Mentes y máquinas», en: A.M. Turing, H. Putnam y D. Davidson, Mentes y máquinas, Madrid, Tecnos, 1985, pp. 61-101.
Rivière, Ángel. (1988). Objetos con mente, Madrid, Alianza.
Rossi-Landi, Ferruccio. (1970). «Computadoras y cerebros», en: Semiótica y estética, Buenos Aires, Nueva visión, 1976, pp. 133-138.
Searle, John R. (1991). «L’analogia cervello/computer: un errore filosofico», en: G. Giorello y P. Strata (eds.), L’automa spirituale. Menti, cervelli e computer, Roma-Bari, Laterza, pp. 199-213.
Turing, Alan M. (1950). «Maquinaria computadora e inteligencia», en: A.R. Anderson (ed.), Controversia sobre mentes y máquinas, Barcelona, Tusquets, 1984, pp. 11-50.
Varela, Francisco J. (1988). Conocer. Las ciencias cognitivas: tendencias y perspectivas. Cartografía de las ideas actuales, Barcelona, Gedisa, 1990.
Winograd, Terry y Flores, Fernando. (1986). Understanding computers and cognition. A new foundation for design, Norwood, Ablex Publishing Corporation, 1988.
Tomado de:
http://geniomaligno.tcomunica.net/%C2%BFel-hombre-de-barro-se-esta-volviendo-listo-de-la-arcilla-al-silicio-breve-reflexion-sobre-seres-y-enseres-artificiales-mirko-lampis/
|