ACTUALIDAD

TECNOLOGÍAS DE LA INFORMACIÓN Y NATURALEZA HUMANA

El proyecto de investigación Naturaleza Humana 2.0 se ha planteado reflexionar sobre el impacto de los últimos avances en ciencia y tecnología: “El hombre de hoy, ¿es el mismo que el hombre de siempre?”

Durante más de tres años se ha creado un foro de análisis y discusión de esta pregunta desde una perspectiva integradora e interdisciplinar, incorporando a las ciencias físicas e incluso la matemática, la biología, la neurología, la antropología, la psicología y la filosofía, las ciencias de la computación y la ingeniería. Este artículo tiene el objetivo de resumir los resultados del núcleo III de este trabajo, condensando así las principales consecuencias que el desarrollo de las tecnologías de la información y de la web han tenido sobre nuestra concepción de la naturaleza humana.

Desde su nacimiento en los años 60, la red ha pasado de su versión 1.0 (en palabras de Tim Berners-Lee, una red de sólo escritura en la que los contenidos son estáticos o se actualizan de manera esporádica por el propietario de la página) a una versión colaborativa o 2.0 en la que los propios usuarios contribuyen a su contenido.

Ejemplos particularmente relevantes del éxito de las aplicaciones Web 2.0 son Wikipedia o Youtube, que se sostienen gracias a las aportaciones de sus usuarios. Así, estos contenidos mejoran con el tiempo gracias a estos prosumidores que no sólo consumen sino que ahora también generan información para la red. La siguiente generación de aplicaciones web que algunos anticipan es la Web 3.0, en la que las máquinas serían capaces no sólo de almacenar información sino también de comprenderla. Además, podrían realizar conexiones entre diferentes fuentes de información, extraer conclusiones de los datos disponibles online o responder a cualquier pregunta realizada por los usuarios de manera automática. Esta Web 3.0 o web semántica exige como primer requisito la existencia de un lenguaje universal. Plantear este lenguaje universal no está exento de problemas como discutiremos más tarde. Así, autores como Floridi defienden que la Web Semántica está filosóficamente bien definida pero presenta problemas fundamentales que impedirán su desarrollo [Floridi 2009].

Aún sin el desarrollo de la web semántica, las TIC han tenido ya consecuencias sociales importantes. Ya se habla de una Generación C: “Conectada, que Comunica, Centrada en su satisfación, Computerizada, orientada a la Comunidad y siempre haciendo Click”. Se han publicado recientemente trabajos interesantes que estudian el impacto de las TIC en los nuestros procesos de pensamiento. Por ejemplo, su uso tiende a disminuir en la memoria, ya que la facilidad para recuperar contenidos hace que se recuerden menos [Parker 2009]. También la capacidad de atención se ve afectada: las distracciones constantes a las que nos someten las TIC llevan a una reducción de la capacidad de atención y a un aumento de la impulsividad [Ophir 2009]. Además, las redes sociales están cambiando la manera en la que nos relacionamos. Son ya posibles las aplicaciones que, en interacciones cortas, simulan con éxito ser una persona, motivando un interés creciente en explorar las relaciones hombre-máquina desde la ciencia y el arte.

Además de éstos, han aparecido otros problemas derivados del mal uso de la tecnología que están resultando en una preocupación creciente. Es cada vez más difícil evitar el malware (que incluiría todo tipo de software dañino, virus o el correo basura o spam), mantener la privacidad en un mundo sobrexpuesto o evitar los ataques ciberterroristas que pueden dañar de manera inmediata y súbita las infraestructuras de un país. Además, puede preverse que la inmediata disponibilidad de la información dará lugar a un vasto conocimiento común en el sentido de que el conocimiento es compartido por todos y todos saben que lo comparten. Esto llevará por ejemplo a negar el derecho a la ignorancia.

En este contexto, Luciano Floridi sostiene que nos encontramos inmersos en lo que llama la “Cuarta Revolución” [Floridi 2014], primero, Copérnico desplazó nuestro planeta Tierra del centro del Universo. Después, Darwin derribó la idea de que el ser humano tuviera un papel central, en sentido biológico, entre el resto de las criaturas. La Tercera Revolución, la de Freud, acabó con el paradigma del hombre como ser racional. Pues bien, según Floridi la Cuarta Revolución volverá a cambiar nuestra comprensión del papel del hombre en el universo y lo replanteará como inforg, un ser que se relaciona en la infosfera, un entorno en el que se intercambia información que engloba a la biosfera y que incluye también a seres artificiales e incluso carentes de dimensión física que únicamente existen online, a través de sus interacciones con otros seres en esta infosfera [Floridi 2005].

Además, su Ética de la Información comprende todo en términos de la información misma; todos los seres pueden definirse, para un cierto nivel de abstracción, en términos de procesos que reciben datos y resultan en un conjunto de reacciones específicas (si bien estas reacciones no tendrían necesariamente que estar determinadas de antemano). La información es, de esta manera, lo que define al hombre y a la máquina, así como al entorno en el que se encuentran, con lo que se convierte en el elemento fundamental que estructura la realidad. Es interesante notar que la información ha pasado también a ser una noción central en las ciencias de la vida, en las que la expresión de las proteínas a partir del ADN se interpreta ahora como procesos intercambio de información en los que el valor de ésta depende de su capacidad de mejorar las probabilidades de supervivencia del individuo [Marcos 2011] Esta interpretación no requiere que la información sea comprendida de manera consciente. Por ejemplo, un árbol que se deshace de sus hojas cuando percibe que los días se acortan tiene conocimiento de que se acerca el invierno y esta información es valiosa, aunque el conocimiento sea inconsciente [Rosen 1985].

La primera ética de Floridi toma, así, la información como concepto central y reemplaza el biocentrismo (en el que tanto el hombre como el resto de seres vivos deben ser respetados) con un ontocentrismo (en el que deben respetarse todos los seres en general). En este sistema centrado en el ser, no sólo deben valorarse los seres vivos sino cualquier ente que contenga o intercambie información, de tal forma que la destrucción de información se equipara al sufrimiento. Dentro de esta nueva ética tenemos dos tipos de seres: agentes y pacientes. Todo ser es poseedor de dignidad por el mero hecho de existir y es por tanto objeto paciente de esta ética. Sin embargo, se consideran agentes éticos y responsables únicamente los sistemas que son capaces de actuar de forma autónoma y aprender de sus acciones de manera adaptativa. De esta manera, tendríamos máquinas y humanos, inforgs ambos, que serían agentes responsables de sus acciones [Floridi 2005].

Sin embargo, no nos es posible, al igual que el mismo Floridi afirma después, rechazar el papel central del ser humano y su importancia por encima del resto de seres de la infosfera. Aunque la metáfora del ser humano como procesador sea útil en algunos contextos, creemos que es inadecuada: el hombre tiene una dimensión biológica, una dimensión social y otra espiritual que no pueden reducirse unas a otras ni tampoco a mera información.

Existen, de entrada, dos diferencias fundamentales en el procesamiento del información entre el ser humano y el autómata: los qualia y la consciencia. Saber que un objeto emite luz de una longitud de onda determinada no es equivalente a la experiencia de percibir el color rojo, al igual que estar en posesión de la información contenida en un libro no es equivalente a haberlo leído de manera consciente y recordar su contenido.

Además, toda información ha de ser expresada en términos de un lenguaje particular, y ningún lenguaje es suficiente a la hora de describir la realidad [Leach 2011 y 2016] Esto es especialmente importante el caso de los valores, que sólo pueden expresarse en su totalidad haciendo uso de lenguajes personales [Leach 2016].

Cualquier descripción del procesamiento de información en el inforg artificial, sin embargo, estará creada como un código informático, que por tanto estará expresado en un lenguaje público, es decir, transparente. Esto es importante porque, para guiar el comportamiento del inforg, ha de definirse su función objetivo, es decir, la magnitud que intentará optimizar mediante su estrategia de aprendizaje. Esto, que está claro desde la perspectiva de un programador que trabaje con machine learning (o aprendizaje automático), puede clarificarse con el siguiente ejemplo simplificado. Supongamos que construimos un autómata para operar en bolsa al que demos el objetivo de maximizar su beneficio y dotemos de las capacidades necesarias para realizar operaciones de compra-venta. El autómata recibiría información del mercado trabajaría con ella y, como resultado, obtendría las órdenes de mercado que ejecutaría.

El autómata puede probar diferentes estrategias. Por ejemplo, podría implementar las estrategias siguientes:

1.Comprar la acción que más haya subido el día anterior.

2.Comprar la acción que más haya subido el último mes.

3.Comprar cantidades iguales de todas las acciones que hayan subido en el último año.

O combinaciones o modificaciones de las anteriores.

La máquina realizaría su proceso de aprendizaje reforzando las estrategias que proporcionan mayores beneficios (medidos en euros, por ejemplo) y explorando modificaciones que pudieran ser incluso mejores. Así, a lo largo del tiempo identificaría las estrategias que mejor funcionan y conseguiría, en este aprendizaje, aumentar la medida en la que consigue su objetivo que es el beneficio obtenido.

Esto es posible porque podemos definir fácilmente el beneficio obtenido como la cantidad de dinero que resulta de las operaciones de compra-venta establecidas. Es importante notar que la definición de esta función no necesita ser completamente objetiva: podrían existir ciertas variables internas a la máquina que no fuesen conocidas desde el exterior pero que fuesen tenidas en cuenta en la expresión del beneficio (por ejemplo, que el beneficio de ciertos días al mes tenga un peso mayor que el beneficio el resto de días, que serían menos importantes para la máquina). Este cálculo incorporaría información que pertenece sólo al sujeto (subjetiva) pero sería expresable en un lenguaje público porque podríamos tener una descripción matemática de la función objetivo.

Algunos valores son expresables de manera pública, otros no. Por ejemplo, la equidad en un reparto puede expresarse de manera matemática (por ejemplo, un programador podría codificarla como la inversa de la diferencia entre la mayor y la menor de las porciones). Puede haber descripciones de este carácter más o menos complejas. Esta simple definición de equidad podría ser un elemento a tener cuenta en la justicia distributiva y ésta última como un componente de la justicia. Aunque los elementos de nivel inferior en esta jerarquía de valores serían más fácilmente codificables, describir su importancia relativa y las excepciones necesarias va volviéndose más difícil según escalamos niveles. ¿Cómo definir, por ejemplo, en términos matemáticos, cuándo la compasión es más importante que la equidad? Así, aunque un programador podría realizar intentos más o menos sofisticados de encontrar una expresión pública sensata de algunos objetivos parciales, no será posible codificarlos a todos ni encontrar una manera acertada de tomar una decisión cuando éstos entren en conflicto.

Este tipo de juicios resultan sin embargo intuitivos en general para un ser humano (aunque a veces las decisiones puedan ser difíciles). Sería interesante reflexionar, en este punto, sobre si experimentar la conformidad o disconformidad con respecto a un valor es un qualia de la misma manera que lo son el placer, el dolor o el juicio estético.

Cuando Kurzweil propone que las máquinas espirituales deben incorporar un módulo externo de valores, no especifica cómo estos valores pueden codificarse [Kurzweil 2012]. Sin embargo, sólo son implementables como guía para el comportamiento del autómata (como función objetivo) si son codificables en un lenguaje público. Esto presenta una diferencia fundamental con respecto al comportamiento del ser humano, guiado por valores no sólo expresables en lenguaje público sino también en lenguaje privado, que se refieren a sus dimensiones biológica, social y espiritual de manera transversal (por ejemplo, la justicia en el ejemplo anterior).

Si, como prevé Floridi, el ser humano intensifica sus interacciones en la infosfera con autómatas artificiales, proponemos que es necesario tener en cuenta dos consideraciones fundamentales. Primero, que el hombre es cualitativamente distinto de estos otros inforgs debido a que es sujeto de fenómenos como los qualia, libre y consciente. Estos atributos que le hacen, en términos de Floridi, una maravillosa anomalía de la naturaleza, hacen que deba respetarse de manera especial por el resto de inforgs.

Segundo, que dado que un inforg debe recibir del programador la codificación de los valores que guiarán su comportamiento, la responsabilidad de las acciones que lleve a cabo sobre los seres humanos será del programador, dado que él es el que ha creado los objetivos del autómata. Además, la limitación de los lenguajes públicos significa que esta definición de valores es también necesariamente limitada. Así, en los casos en los que se desee que el autómata persiga un valor personal (lo cual no incluye a todos los autómatas, como podemos ver en el ejemplo del autómata operador de bolsa), será necesario siempre incluir una supervisión humana a las decisiones de la máquina.

BIBLIOGRAFÍA 

Floridi, Luciano. The fourth revolution: How the infosphere is reshaping human reality. OUP Oxford, 2014.

Floridi, Luciano. “Web 2.0 vs. the Semantic Web: A philosophical assessment.” Episteme 6.01 (2009): 25-37.

Floridi, Luciano. “Information ethics, its nature and scope.” ACM SIGCAS Computers and Society 35.2 (2005): 3-3.

Flum, Jörg: “¿Es lo mismo el finito con el infinito que sin él? Una metáfora sobre Hércules y la Hidra”. Ponencia en el simposio Naturaleza Humana 2.0, 2016.

Kurzweil, Ray. How to create a mind: The secret of human thought revealed. Penguin, 2012.

Leach, Javier: “Del positivismo lógico al positivismo tecnológico. Una reflexión desde el lenguaje”. Ponencia en el simposio Naturaleza Humana 2.0, 2016.

Leach, Javier. Mathematics and Religion: Our Languages of Sign and Symbol. Templeton Foundation Press, 2011.

Marcos, Alfredo. “Bioinformation as a triadic relation.” Information and living systems (2011): 55-90.

Ophir et al, “Cognitive Control in Media Multitaskers”, Psychological and Cognitive Science, 2009

Parker, “A Different Kind of Memory: Examining the Effect of Technology through the Ages”, DJIM 4, 2009

Rosen, R. (1985). Anticipatory systems. Oxford: Pergamon Press.

Por SARA LUMBRERAS SANCHO