jueves, 29 de marzo de 2012

La vida del cerebro


Prólogo
                          


Este ensayo cumpliría su objetivo si al leerlo pudiera ser comprendido por aquellos que no habiendo encontrado una respuesta certera para explicar la conducta humana, aún siguen buscándola, por aquellos que dudan de las explicaciones que hasta ahora han aparecido. Pues con lo aquí expresado no pretendo rectificar ninguna postura, ni cambiar la opinión de los académicos o de los ya formados en estrictas disciplinas. Este ensayo introduce un nuevo paradigma, una estructura básica para comprender la conducta y para estudiarla con más profundidad, esta es pues, una revolución teórica para todas las ciencias del comportamiento humano. Mi labor no abarca la demostración, que debe ser experimental, esta explicación simplemente se muestra, por evidencia, y espero, que ya vendrán otros y la demostrarán. Llegar a ver que la conducta de nuestros semejantes puede explicarse, comprenderse y predecirse mediante la física es algo maravilloso que despeja nuestra mente y nos relaja enormemente, esto, nos libera de la incertidumbre.








Primera parte


“Indudablemente, somos parte de la naturaleza, que ha producido nuestros deseos, nuestras esperanzas y nuestros miedos, de acuerdo, con leyes que los físicos comienzan a descubrir. En este sentido, somos parte de la naturaleza, somos el resultado de las leyes naturales y también sus víctimas a la larga.”

Bertrand Russell, “Por qué no soy cristiano”



Esta primera parte trata de explicar cómo hemos llegado a plantear la hipótesis del cerebro como estructura disipativa de entropía informacional. Es pues esencial comprender estos primeros capítulos para entender la hipótesis que se plantea más adelante acerca de la vida del cerebro.


¿Qué es la vida?


En su ya famoso “What is life?” Schrödinger mostró la que hasta ahora ha sido la definición más certera de la vida. Él intentó describir la vida como un fenómeno físico, como un sistema comprensible a partir de las leyes físicas.
Schrödinger anticipó la idea de considerar a los seres vivos como estructuras disipativas de entropía, es decir, como sistemas termodinámicos que consumen <<energía útil>> y liberan calor. Los seres vivos somos materia que no se encuentra en equilibrio térmico con el entorno, materia energizada, organizada, es decir, materia ordenada. Cuando comparamos la complejidad de cualquier ser vivo, por pequeño e insignificante que sea, con una piedra, una máquina u otro cuerpo inerte, nos damos cuenta de que cualquier forma de vida es muchísimo más compleja que algo inerte. Los cuerpos vivos son sistemas termodinámicos que no están en equilibrio, o prácticamente en equilibrio, sino que están muy ordenados, es decir, que están muy lejos del estado de su máxima entropía.
“A diferencia de la máquina de vapor de Watt, por ejemplo, el cuerpo concentra orden. Se autorrepara continuamente. El epitelio intestinal se renueva cada cinco días. El hígado cada dos meses. La piel cada seis semanas. Cada año se reemplaza el 98% de los átomos de nuestro cuerpo. Este incesante reemplazamiento químico, el metabolismo, es un signo inequívoco de vida. Esta <<máquina>> exige una entrada continua de energía y productos químicos (alimento).”1

Tal y como dice F. J. Dyson, las teorías de Eigen y Orgel (1981) no son teorías acerca del origen de la vida, sino más bien acerca del origen de la replicación.2 El metabolismo es el signo inequívoco de vida, todo lo vivo metaboliza. Uno puede escoger no reproducirse y no por ello dejará de estar vivo. Pero no podemos escoger dejar de metabolizar, no podemos decir a nuestras células, ¡dejad de replicaros! No funciona, nuestro cuerpo constantemente se regenera, se autorrepara, metaboliza.
“Enfrentada a la disolución y a la destrucción, la vida sufre una permanente amenaza de muerte. La vida no es sólo materia, es materia energizada, organizada, materia con una gloriosa y peculiar historia. […] Desde una perspectiva termodinámica y autopoyética, el más bajo acto reproductivo y la más elegante apreciación estética derivan de una misma fuente y en última instancia sirven al mismo propósito: preservar la materia viviente frente a la adversidad y la tendencia universal hacia el desorden.”3

A partir de la interpretación de Boltzmann sabemos que la entropía termodinámica expresa la probabilidad de aparición de un suceso determinado, y nosotros los seres vivos somos cuerpos con muy poca entropía, improbabilísimos dentro del universo, seres que fácilmente se desordenan y desaparecen. “Un organismo vivo produce entropía positiva y por esto tiende a aproximarse al peligroso estado de la máxima entropía: la muerte.”4 A medida que nuestro sistema se desordena, la vida decrece y se acerca fatalmente al estado de máxima entropía.
Un organismo “solo puede mantenerse alejado, es decir, vivo, extrayendo continuamente entropía negativa de su medio.”5 Para conseguir evitar la muerte, el equilibrio térmico, los seres vivos actúan constantemente, reaccionan al entorno; acumulan orden y se deshacen de la entropía, metabolizan. Pues en realidad, “las plantas consumen orden” y no energía, y “los animales consumen orden”6 y no alimentos.
“De acuerdo con la segunda ley, el mantenimiento autopoyético preserva o incrementa el orden interno a base de desordenar el mundo exterior excretando desechos y disipando calor. Todo ser vivo tiene que metabolizar, y por lo tanto, crear desorden local: calor inútil, ruido e incertidumbre.”7 Cuando metabolizamos, estamos manteniendo nuestro estado de extraordinario orden lejos del equilibro termodinámico. Comemos y bebemos para absorber el orden, la entropía negativa, o energía útil; y sudamos, orinamos y defecamos para deshacernos de la entropía, los deshechos, el desorden. En palabras de Schrödinger;
“La vida parece ser el comportamiento ordenado y reglamentado de la materia, que no está asentado exclusivamente en su tendencia a pasar del orden al desorden, sino basado en parte en un orden existente que es mantenido.”8

Podría parecer que los seres vivos contradicen, o no cumplen con el segundo principio de la termodinámica, según el que todo sistema aislado tiende al equilibrio termodinámico. Pero en cualquier sistema aislado la entropía siempre aumenta, “lo que implica que aumentan el calor, el ruido, la incertidumbre y demás formas de energía no útiles. A medida que los sistemas locales pierden calor, el conjunto del universo lo gana. […] la segunda ley se cumple siempre que se considera el sistema (la vida) más su entorno.”9 La acción de los seres vivos en su entorno, o la acción de la vida en el universo, genera un mayor incremento de la entropía.
“Para el premio Nobel belga Ilya Prigogine, la vida pertenece a una clase más amplia de <<estructuras disipativas>>, que incluye también centros de actividad no vivos, tales como remolinos, tornados y llamas. Una estructura disipativa […] se mantiene a sí misma (o incluso crece) importando formas <<útiles>> de energía y exportando, o disipando, formas menos útiles –fundamentalmente calor–. […] Cuanta más vida haya en el universo más deprisa se degradarán las diversas formas de energía en calor.”10

Pero entonces, ¿qué significa la entropía para los seres vivos? El desorden termodinámico, la entropía, es la magnitud física de la que huyen los seres vivos, es aquella que les permite esquivar el peligro y encontrar el orden. Es la entropía aquella magnitud física que los seres vivos identificamos con el peligro, por ser aquella que nos lleva al equilibrio termodinámico, la muerte. “La vida tiene que mantenerse contra la tendencia universal del calor a disiparse con el tiempo. Este enfoque termodinámico explica, en cierto modo, la determinación, la intencionalidad de la vida, pues durante miles de millones de años ha seguido la estrategia, irrenunciable, de jugársela a medida que avanza.”11




Información, sensación y percepción



Cada cual nace donde y cuando le toca, sin poder replicar nada a nadie, y empieza así su aventura en esta vida. Cada individuo nace dentro de un espacio y tiempos determinados, vive en un entorno y absorbe de este la información que puede. Así es lógico entender que cada uno tiene una memoria distinta, vive una experiencia diferente, y por lo tanto, almacena distinta información.
Puesto que tenemos experiencias distintas, distinta información, cada uno de nosotros percibe una incertidumbre diferente ante un mismo estímulo, pues esta incertidumbre depende de la información que poseemos del estímulo. Cuanta más información tenemos de un suceso, menos incertidumbre percibimos, y al revés, a menos información que tenemos de un estímulo más incertidumbre percibimos de él.
Cuando vemos que un suceso tiene varias respuestas posibles, todas ellas equiprobables, percibimos la máxima entropía. Es decir, si vemos que un evento puede llevar a otros tres, todos ellos con probabilidad igual, percibimos la máxima entropía ante ese evento, porque lo desconocemos por completo y no podemos hacer predicción alguna sobre su final. La incertidumbre y la información están íntimamente relacionadas tal y como lo mostró Claude Elwood Shannon en su ya famosa “Teoría Matemática de la Comunicación” (1948).

Otro físico, este dedicado al campo de la neurología teórica, ha elaborado “recientemente” una muy interesante teoría de la percepción que ha sido capaz de unir bajo una fórmula a todas las anteriores leyes de la percepción. En 1993 Kennet H. Norwich publicó su desconocido libro “Information, sensation, and perception” donde explica que nuestras células sensoriales, aquellas que envían las señales electroquímicas que acaban excitando a nuestros músculos o ganglios, perciben la incertidumbre (entropía) de cada estímulo, esto es, el peligro de cada estímulo.
Las antiguas fórmulas de Weber-Fechner o de Stevens consideraban la sensación como un producto de la función (I) de la intensidad del estímulo. Norwich consigue demostrar que ambas formulaciones son correctas en distintas situaciones, bajo condiciones diferentes. Pues Norwich ha descubierto que todas las señales, que las células sensoriales envían a sus receptores más cercanos, se dirigen hacia ellos con una velocidad (F) proporcional a la función de incertidumbre (H) que Norwich sustituye por la antigua fórmula de Stevens o de Weber-Fechner. “El cerebro y las neuronas responden <<en proporción a>> la entropía de los estímulos.”12
Según explica Norwich, la percepción sensorial consiste en un “escoger entre” alternativas; cuando vemos una casa roja, no vemos una casa azul, una casa verde o una casa blanca. Al mirar el reloj y ver las agujas marcando las doce en punto, vemos que no son las diez, que no son las nueve, ni las ocho, ni las siete. Cuando vemos, ya estamos distinguiendo, ya estamos reduciendo la incertidumbre, escogiendo entre alternativas, eliminando opciones, recibiendo información. Primero establecemos una incertidumbre (de qué color es la casa?) y después buscamos la respuesta con nuestros actos (blanca). En este sentido, se aplican los conocimientos de la teoría de la información de Shannon dónde la información es definida como la reducción de incertidumbre.
“<<Ver>> significa conjeturar algo <<ahí fuera>>, lo que Ames llama la <<experiencia del eso – ahí>>. Todo pensar es distinguir, clasificar. Todo percibir se refiere a expectativas, y por consiguiente a comparaciones. Cuando decimos que desde el aire las casas nos parecen de juguete, y las personas hormigas, queremos decir, supongo, que nos sobresalta la desacostumbrada visión de una casa que se parece al juguete con que el niño juega en el suelo de su cartón.”13

“F = kH implica que nosotros sólo percibimos aquellos aspectos del mundo exterior que no conforman con nuestras expectativas, y, por lo tanto, que nos son inciertos.”14 Así que cuando un estímulo es totalmente conocido, no tiene incertidumbre, nuestras células sensoriales no lo perciben y no envían ninguna señal al sistema nervioso. Cuando, por ejemplo, llevamos un tiempo cociendo verduras o entramos en una habitación recién pintada, percibimos primero un fuerte olor que se irá disipando con el tiempo, hasta que finalmente será imperceptible. Vamos conociendo el olor, hasta que llegamos a conocerlo del todo y a no percibirlo.
Pero constantemente estamos percibiendo y actuando, nuestras células sensoriales están trabajando, y cada señal que sale de un sensor es enviada con una intensidad proporcional a la incertidumbre que percibe el sensor. Ahora ya no existe la idea de la intensidad del estímulo como algo exterior, ahora sabemos que la intensidad de un estímulo es proporcional a la incertidumbre que percibimos de este, es decir, a la información que de él tenemos. “Siguiendo el trabajo de Shannon (1948) y Wiener (1948), la información es definida como la reducción de incertidumbre. Supongamos que un evento puede ocurrir en uno de varios caminos; esto es, tiene varias salidas distintas. Si, por ejemplo, lanzamos una moneda, ésta puede salir cara o cruz, [y cuando la moneda está en el aire] sentimos una incertidumbre momentánea sobre el suceso. Después el evento es conocido, la incertidumbre es reducida, o resuelta, y quien percibe el evento recibe una cantidad de información igual a la incertidumbre reducida.”15 Si yo lanzo la moneda sabiendo que en ambos lados hay una cara, no percibiré la misma incertidumbre, y no recibiré la misma cantidad de información cuando caiga la moneda, porqué ya sabía lo que iba a suceder.
Si por ejemplo, sabemos que es de día pero no sabemos qué hora es y nos decidimos a preguntarlo, es que hemos establecido una incertidumbre, con una matriz de alternativas con las horas de día (aproximadamente doce). Cuando nos dicen la hora, cuando nos dan la respuesta, nosotros recibimos una cantidad de información igual a la incertidumbre reducida, y por tanto, si no supiéramos que es de día o de noche, recibiríamos el doble de información al saber la hora, porque reduciríamos el doble de incertidumbre, eliminaríamos el doble de alternativas. De este modo vemos que la incertidumbre que percibimos, y por ende la información que recibimos, viene determinada por nuestra memoria, por la información que previamente almacenamos y que determina los valores de las probabilidades a priori. Al saber que es de día o de noche se valoran nulas (0) las probabilidades de la mitad del día que sabemos que no es. Si no tenemos información al respecto no podemos anular estas opciones, y por tanto, percibimos más incertidumbre y recibimos más información cuando obtenemos la respuesta. “Nuestras respectivas experiencias anteriores han determinado los valores de las probabilidades a priori y, por ende, de la información recibida. La información recibida es, en este sentido, una cantidad no absoluta.”17 Para el sistema nervioso no importa cuál es la intensidad del estímulo, su velocidad, su masa o su energía, lo que interesa es su incertidumbre, su desorden. La entropía es una característica más para cualquier suceso, es una magnitud física. “Hay que tener cuidado de no confundir este tipo de entropía, que es la entropía de la información teórica, con la entropía física o termodinámica, una cantidad usada extensamente en física y química.”16

Kenneth Norwich ha aportado recientemente estas nociones de la relación entre la percepción y la incertidumbre, que nos ayudarán a entender la conducta humana. Ahora sabemos que cada individuo percibe el entorno subjetivamente, encerrado en la información que posee. Esta percepción de la incertidumbre, relativa a la información sensorial que tenemos, determina las señales electroquímicas que corren por nuestro sistema nervioso, y por ende, nuestra conducta. Todos percibimos los mismos estímulos subjetivamente, según sea la información que guardamos de cada estímulo. La percepción del entorno es relativa al sujeto que siente y almacena una determinada información del mundo.



El papel de la evolución


Durante miles de años nuestra especie ha creído en mitos y leyendas; en almas, fantasmas, espíritus, ángeles, demonios y dioses. Hasta el siglo XX no se reconoció a la vida como un proceso natural sujeto a las leyes de la física. Hoy aceptamos que la vida está formada de partículas físicas que, como los cuerpos inertes, son hijas del polvo estelar. “Nosotros hemos trastocado lo aprendido. Nos hemos vuelto más modestos en todo. Al hombre ya no lo derivamos del espíritu, de la divinidad, hemos vuelto a colocarlo entre los animales”18
“El hombre es parte de la naturaleza, no algo en contradicción con ella. Sus pensamientos y movimientos corporales siguen las mismas leyes que describen el movimiento de los astros y los átomos. […]Su cuerpo, como toda materia, está compuesto de electrones y protones, que, por lo que sabemos, obedecen a las mismas leyes a las que obedecen también los que no forman parte de los animales o plantas.”19

Nosotros, los humanos, somos descendientes de animales muy variados, hasta de bacterias diminutas. Todas las especies del planeta estamos emparentadas genéticamente entre nosotras, todos somos parientes. Y nuestra conducta, aunque pueda parecer de otro mundo, no es sino de lo más corriente dentro de la vida terrestre.
Para que nuestros músculos se contraigan, esto es, moverse, debe llegar una señal electroquímica hasta las células musculares. Ésta es la misma señal electroquímica de la que hablamos antes, la que generan las células sensoriales cuando perciben un estímulo. Otro tipo de reacciones al entorno son aquellas causadas por las hormonas que las glándulas segregan en la sangre y alteran la conducta. Pero sea por “A” o por “B”, cualquier acción es generada por la percepción del entorno, es decir, por las señales que los sensores generan y acaban llegando al músculo o al ganglio.
Cuando, por ejemplo, pintamos un cuadro, saltamos una cerca o preguntamos algo a un amigo lo que hacemos es reaccionar a nuestro entorno. En neurología se acepta que nuestra conducta corresponde a un determinado estado de excitación del sistema nervioso, es decir, que la excitación del sistema nervioso determina nuestra conducta. A partir del descubrimiento de Norwich sabemos que “el cerebro y las neuronas responden <<en proporción a>> la entropía de los estímulos.”20
Es momento para comprender aquello que adelantamos en el primer capítulo cuando decíamos que la entropía es peligro para la vida. La entropía, decíamos, es peligro para la vida porqué lleva a la muerte térmica. Pero fíjense que ahora estamos hablando de la entropía de la información, es decir, la incertidumbre. Norwich dice que el cerebro y las neuronas responden en proporción a la incertidumbre de los estímulos, es decir, a la incertidumbre que percibimos de cada estímulo. Esto nos lleva a pensar, lógicamente, que la incertidumbre percibida en el entorno es lo que genera el movimiento corporal de los animales. Ahora podemos dudar acerca de si esta incertidumbre o entropía de la información es positiva o negativa para el organismo.
Podríamos suponer que los animales han evolucionado de tal forma que responden en proporción a aquello que favorece su supervivencia, de tal modo que actúan cuando encuentran algo favorable para ellos. Pero como muchos habrán advertido, esto no es así. Los animales respondemos al entorno en proporción a la entropía de los estímulos, porque respondemos a un peligro y no a algo favorable. La evolución tiene un papel fundamental para comprender estas ideas, pues los animales que sobreviven lo hacen gracias a que reaccionan ante el peligro, gracias a que perciben el peligro y lo evitan. Así que son varios los caminos que nos llevan a Roma; podemos ver, como lo hizo Schrödinger, que la entropía termodinámica es peligrosa para la vida, pues ésta consiste en mantenerse ordenado, en mantenerse sin demasiada entropía. Y por otro lado podemos ver, como lo hizo Norwich, que la entropía informacional altera el sistema nervioso y es por tanto el motor de nuestros movimientos. Una entropía informacional que señala el peligro al organismo, que indica cuándo es el momento de escapar y salvar la vida.  





Segunda parte


En esta segunda parte del texto trataré de explicar la hipótesis que guía todo el ensayo, la hipótesis que considera al sistema nervioso una estructura disipativa de entropía informacional.


La vida del cerebro


¿En qué consiste la vida del cerebro? ¿Qué necesita nuestra mente para seguir con vida? Gracias al trabajo de Norwich hoy sabemos que nuestro sistema nervioso consume información y responde a los estímulos en proporción a la incertidumbre que percibe. Esto implica que nuestro cuerpo reacciona al entorno en función de la incertidumbre que percibe en el entorno.
Si tenemos esto claro, podemos volver al primer capítulo y recordar que Schrödinger descubrió que todos los seres vivos son estructuras disipativas de entropía termodinámica. Es decir, que todo lo vivo es una estructura disipativa de entropía. El cerebro o el sistema nervioso son estructuras vivas, sistemas vivos, que consumen orden y disipan entropía, ¿pero qué orden consume la mente, qué tipo de entropía disipa el cerebro?
Mi hipótesis, en adelante H1, es que el sistema nervioso es una estructura disipativa de entropía informacional (incertidumbre). Así que mientras todo el cuerpo y el sistema metabólico funcionan como una estructura disipativa de entropía termodinámica que consume energía útil y disipa entropía termodinámica, el sistema nervioso es una estructura disipativa de entropía informacional que consume información y disipa incertidumbre. Esto sugiere que la vida del sistema nervioso consiste en consumir información y disipar la incertidumbre que establece.
Por tanto, el comportamiento del ser humano consiste en mantener el orden termodinámico del cuerpo, y a la vez, el orden informacional de la mente. Nuestros sensores establecen las incertidumbres que percibimos, y nuestras acciones tienden a resolverlas. Esta hipótesis explica, por ejemplo, porqué el sistema nervioso reacciona negativamente a las pérdidas de información percibida y positivamente al incremento de información.








Tercera parte

“Ella prometió darme explicaciones y yo me dirigí a cumplir su deseo.”
F. Dostoievsky, “El jugador”

En esta tercera parte se desarrollan todas las aplicaciones de esta hipótesis, es decir, se muestra, de la forma más precisa posible, lo que sucede si H1 es verdad (V). Dicho de otro modo, en esta tercera parte he intentado expresar qué implica la hipótesis del sistema nervioso como estructura disipativa de entropía informacional (H1).



Malestar


[Si H1 es (V) -->] El sistema nervioso tiene que responder negativamente a un incremento de la incertidumbre percibida en el entorno. Esto es, el cerebro responde negativamente al entorno cuando pierde información de él, es decir, cuando crece la incertidumbre que percibe.

Veamos esto con más detenimiento. Si el sistema nervioso es una estructura disipativa de incertidumbre tiene que responder negativamente al entorno cuando crece la incertidumbre que percibe, es decir, cuando pierde información del entorno, cuando pierde orden. Nuestra mente responde negativamente al entorno cuando crece la incertidumbre porque está perdiendo información del entorno, porque se está desordenando. Himplica que nuestra mente trabaja constantemente para mantenerse ordenada, informada, alejada de la incertidumbre, y por tanto, nuestra reacción a un incremento de la incertidumbre en el entorno (o perdida de información) debe ser negativa.    
Vemos, por ejemplo, el miedo que sienten los jóvenes a la muerte de sus padres, a un mundo sin sus padres, a un mundo desconocido. La mayoría de los jóvenes sienten miedo a perder a sus padres, a vivir sin sus padres, a no saber qué hacer sin mamá y papá, a no saber cómo vivir entonces. O el miedo a la propia muerte que muchas personas desarrollan, es el miedo a un mundo desconocido, a un mundo del que no podemos volver, que no podemos conocer. Ese miedo a qué será de nosotros cuando llegue la muerte, a qué será de nuestro cuerpo, de nuestra alma, de nuestra mente, a qué pasará con todo esto. El miedo que, por ejemplo, sienten los allegados del desaparecido, su familia y amigos. La desesperación, el nerviosismo o la tensión por no saber dónde está, dónde se encuentra o si sigue con vida. Esta tensión por un incremento general de la incertidumbre en el entorno, es una pérdida de información.
Sentimos repulsión, miedo, odio, recelo, desconfianza, tensión o nerviosismo, cuando percibimos que ha aumentado la incertidumbre en el entorno, que ha aparecido algo terriblemente nuevo, extraño, fuera de lugar, desconocido, contradictorio. El miedo a perder el trabajo, a no saber cómo vivir sin ese trabajo, a no saber cómo alimentar a la familia sin nuestro trabajo. Ese miedo a no saber qué hacer sin el trabajo que ahora tenemos es el miedo a la incertidumbre, a lo desconocido. O el miedo que los niños sienten a la oscuridad, es decir, a no poder ver su entorno, a no poder distinguir su entorno. Los niños sienten miedo a la oscuridad porque aumenta la incertidumbre del entorno, es decir, porque perciben con mayor dificultad el entorno, porque reciben menos información del entorno cuando crece la oscuridad.
Hemos visto pues varios ejemplos en los que se advierte que reaccionamos negativamente al entorno cuando perdemos información de este, es decir, cuando crece la incertidumbre que percibimos en el entorno. Esto sucede porque nuestra mente es una estructura disipativa que se mantiene en un equilibrio dinámico mientras actuamos para reducir las incertidumbres que hemos establecido a partir de la percepción, y por tanto, reaccionamos negativamente cuando no conseguimos reducir esas incertidumbres, es decir, cuando perdemos información del entorno. Podemos pues predecir que todos los animales con sistema nervioso van a reaccionar negativamente al entorno cuando perciban que la incertidumbre está aumentando y no logran reducirla, es decir, cuando perciben que han perdido información.
Veamos ahora un experimento que puede ser llevado a cabo con facilidad para demostrar nuestra hipótesis. Si consideramos una partida de póker con varios jugadores, por ejemplo, seis, y examinamos la tensión o el nerviosismo de cualquiera de ellos, veremos que todos reaccionan negativamente cuando otro jugador que anteriormente no jugaba decide jugar (apostar). En este caso las probabilidades de victoria se han redistribuido al aumentar las alternativas (número de jugadores). Cuando aparece un nuevo jugador las probabilidades de victoria se redistribuyen, es decir, aumenta la incertidumbre que perciben los jugadores que ya jugaban. Al contrario, se podrá demostrar que todos los jugadores se sentirán aliviados cuando un jugador deje de jugar, es decir, cuando se reduzcan las alternativas y adquieran información.



Bienestar


[Si H1 es (V)  -->] El sistema nervioso tiene que responder positivamente a un incremento de la información percibida en el entorno. Esto es, el cerebro responde positivamente al entorno cuando obtiene información de él, es decir, cuando decrece la incertidumbre que percibe.

Esto es simple y llanamente lo opuesto a lo anterior. Pues cuando sí que conseguimos resolver total o parcialmente una incertidumbre que habíamos establecido, reaccionamos positivamente. Nuestras sensaciones de alegría se producen cuando hemos obtenido la cantidad de información necesaria para resolver una o varias incertidumbres que habíamos establecido. Sentimos alegría cuando resolvemos un puzle, un enigma, una duda, un dilema, una pregunta, un problema, un acertijo, un juego, una incertidumbre. Nos alegramos cuando, después de un vuelo en avión, hemos llegado sanos y salvos a nuestro destino, nos alegramos pues de que se haya resuelto la incertidumbre que habíamos establecido (caerá el avión?, aterrizará sin problemas?...) Cuando recibimos la información necesaria para resolver las incertidumbres que establecemos nos alegramos y nos tranquilizamos. Al resolver una incertidumbre nos tranquilizamos, volvemos a un estado de equilibrio sensorial y se elimina el efecto del estímulo inicial que nos transmitió la incertidumbre.
[Si H1 es (V)  -->El sistema nervioso tiene que responder más positivamente a un estímulo cuanta más información recibe de este. Es decir, a más información recibida mayor alegría para el individuo.
Hay muchas ocasiones en las que esperamos la respuesta a una incertidumbre que hemos establecido y pese a obtener dicha respuesta no nos quedamos satisfechos. ¿Qué sucede aquí, porqué no nos relajamos pese a obtener certeza? Si,  por ejemplo, esperamos la respuesta a una entrevista de trabajo es que ya hemos establecido una incertidumbre del tipo (¿me darán trabajo los de …?). La respuesta a esta incertidumbre será del tipo S/N, y aunque en ambos casos obtenemos la respuesta a esta incertidumbre es evidente que no reaccionamos igual ante ambas. Aunque ambos mensajes (S/N) contienen un bit de información, cuando recibimos el Sí obtenemos la respuesta a esta primera incertidumbre y también a otras tantas (cómo me comprare el coche?, con qué dinero pagaré el alquiler?, con qué dinero pagaré la pensión a mi ex-mujer?,…) y por tanto, percibimos una cantidad de información mayor a un bit. Por contra, cuando nos dicen que No sólo obtenemos la certeza acerca de la primera incertidumbre (¿me darán trabajo los de …?) mientras que las demás siguen presentes y tal vez se incrementen (cómo me comprare el coche?, con qué dinero pagaré el alquiler?, con qué dinero pagaré la pensión a mi ex-mujer?,…). Con este ejemplo vemos que dos mensajes S/N contienen distintas cantidades de información, pues el Si resuelve más incertidumbres y contiene por tanto más información que el No. Vemos también con claridad que nosotros valoramos más positivamente el mensaje que contiene más información, es decir, el que resuelve más incertidumbres y nos aporta un mayor orden mental (Sí). 



Una búsqueda sin fin


[Si H1 es (V) -->] El sistema nervioso, y por ende, el cuerpo, trabaja constantemente para obtener información y reducir las incertidumbres que vamos percibiendo. Es decir que constantemente estamos actuando a fin de resolver las distintas incertidumbres que vamos estableciendo.
   
¿Qué dices, qué haces, qué comes, qué hora es, quién viene, dónde están los demás,…? Preguntas. Una pregunta es, por definición, un intento de obtener información para resolver una incertidumbre establecida. Durante todo el día nos estamos moviendo para resolver las incertidumbres que hemos establecido con la percepción. Cuando percibimos ya estamos resolviendo la incertidumbre ya estamos buscando información sobre (qué color es? qué es? de qué está hecho?...) y cuando llegamos a establecer una incertidumbre (de quién es?) que no logramos resolver de entrada, actuamos para resolverla, es decir, actuamos para obtener la información necesaria para resolver la incertidumbre (de quién es?).
Cuando, por ejemplo, andamos por la calle y establecemos la incertidumbre (viene algún coche?), giramos la cabeza para ver si vienen coches. Cuando, por ejemplo, oímos un zumbido en el aire establecemos una incertidumbre (qué es ese zumbido?) y rápidamente giramos la cabeza para obtener la información necesaria y resolver la incertidumbre. Al oír la melodía de nuestro móvil establecemos una incertidumbre (quién es? será Manolo?,...). Rápidamente buscamos el móvil e intentamos ver quién nos llama o si es la llamada que estamos esperando. Es decir, reaccionamos a las incertidumbres que establece nuestro sistema nervioso buscando información para resolverlas. Cuando, por ejemplo, estamos en una sala con más gente y oímos la melodía de un teléfono ajeno nos preguntamos (de quién es? de quién será? porqué no lo apaga?...) y buscamos con la mirada quién es el propietario. Etc. Etc.  
Vayamos ahora a otro mundo, vayamos a los orígenes de la filosofía. Aquí encontramos, por ejemplo, a los diálogos de Platón, un constante ir y venir de preguntas y soluciones diversas. El único objetivo de los diálogos de Platón es acertar soluciones para sus contemporáneos, encontrar las respuestas a las preguntas de su tiempo. Descartes era el hombre que sólo podía asegurar que él era algo que dudaba, y por lo tanto alguien lleno de preguntas y deseoso de respuestas, explicaciones. Lo mismo hicieron los Kant, Hume, Schopenhauer, Hegel, Marx, Frege, Russell, Habermas, Rawls,… Pues el objetivo de la philo-sophya [pasión-sabiduría] en cualquiera de sus ramas y en cualquiera de sus épocas, es siempre el de encontrar soluciones, respuestas o explicaciones a las preguntas de su época.
La búsqueda de respuestas, de soluciones, de certidumbres, ¡de la verdad!; la búsqueda de la academia. ¿Cuántos millones de hombres y mujeres se dedicaron a dar respuesta a sus preguntas en relación al arte, a la naturaleza, al hombre, a la moral, a la máquina, a la vida…? Miles de filósofos han dado sus respuestas al mundo, trataron de explicar la experiencia estética, “¿Qué es el arte?”21, “El problema de la culpa”22, “Los problemas de la filosofía”23, “El problema del hombre”24, “El problema de Sócrates”25, “Kant y el problema de la metafísica”26, “el problema de la forma”27, “el enigma del estilo”28
Pero otros miles de personas se dedicaron a encontrar orden en la naturaleza, ¡toda la ciencia se basa en esa idea! La ciencia nace de la necesidad de resolver problemas, la ciencia nace de los problemas o incógnitas que percibimos, la ciencia es un conjunto de  intentos de solución.29 Thomas Kuhn30 en su famoso libro sobre las revoluciones científicas, ya dijo que la “ciencia normal” consiste en “resolver rompecabezas”, es decir, que una teoría, una hipótesis, una tesis o un sistema científicos son intentos de solución, respuestas, explicaciones a ciertos problemas.
“Los sistemas de Ptolomeo y Copérnico intentaban dar cuenta de los movimientos observados, <<aparentes>>, de los cuerpos celestes por medio de supuestos apropiados acerca de la estructura del universo astronómico y los movimientos reales de los objetos celestes. Las teorías corpuscular y ondulatoria de la luz daban cuenta de la naturaleza de ésta en términos de ciertos procesos subyacentes […] Así, la refracción de un rayo de luz que pasa del aire al vidrio se explicaba, en la teoría ondulatoria de Huygens, como resultado del hecho de que las ondas de luz se hacían más lentas en un medio más denso.” 31

Hoy el tiempo ha quedado ordenado. Hemos encontrado la “Historia del Tiempo Geológico” terrestre, desde el eón Fanerozoico hasta el Hadeico, pasando por todas las eras, los períodos y las épocas… Hemos creado el calendario solar y lunar, tuvimos que ordenar el tiempo de cada día. Los años, las estaciones, los meses, o los días son una medida de tiempo, pero también las horas, los minutos y los segundos nos sirven para ordenar el tiempo, para comprender el tiempo. Calendarios, agendas, horarios, relojes y rutinas dejan al tiempo ordenado, han despejado enormemente nuestra percepción de incertidumbre en el tiempo.
La gente lee los periódicos porque nos cuentan cada día dónde, cuándo, cómo, quién y por qué sucedió qué, es decir, los periódicos nos dan respuestas, los compramos para obtener información, respuestas, un descenso de la incertidumbre. Vamos en busca de orden, de respuestas, de soluciones.
La religión no es algo muy distinto, la religión son respuestas, soluciones fáciles, soluciones milenarias. Dios ha sido la respuesta más usada por la humanidad, la solución más recurrente desde el origen de los tiempos. Dice el Génesis, en el capítulo primero:
“En el principio creó Dios los cielos y la tierra.”, “después dijo Dios: Produzca la tierra hierba verde, hierba que dé semilla”, “E hizo Dios las dos grandes lumbreras; la lumbrera mayor para que señorease en el día, y la lumbrera menor para que señorease en la noche; hizo también las estrellas.”, “Dijo Dios: Produzcan las aguas seres vivientes, y aves que vuelven sobre la tierra, en la abierta expansión de los cielos. Y creó Dios los grandes monstruos marinos, y todo ser viviente que se mueve”, “Entonces dijo Dios: Hagamos al hombre a nuestra imagen, conforme a nuestra semejanza” 32
Y así queda explicado todo, aquí están las respuestas, la incertidumbre queda resuelta; Dios creó los cielos, los mares, la tierra, las plantas, los peces, las aves, los animales terrestres y finalmente el hombre. La tradición China explica también todos los fenómenos que observamos…
“Cuando murió P’an-Ku, su cabeza <<se convirtió en un pico sagrado, sus ojos pasaron a ser el Sol y la Luna; la grasa, los ríos y los mares; sus cabellos y sus pelos, los árboles y los vegetales>>.” 33
“En tiempos del Emperador (mítico) Yao, <<el mundo todavía no estaba ordenado, las vastas aguas corrían de manera desordenada, inundaban el mundo>>. Contrariamente a lo que había hecho su padre, que construyó diques para dominar las aguas, Yu<<cavó la tierra e hizo fluir (las aguas) hacia los mares, expulsó las serpientes y los dragones y los confinó en las marismas>>” […]“Yu desempeña las funciones de un demiurgo y un héroe civilizador” 34
Las creencias o los mitos, son sencillas explicaciones para preguntas complejas. Cualquier mitología de las culturas del planeta es una gran cantidad de diferentes respuestas a similares preguntas. Como dice Mircea Eliade, el mito “se refiere siempre a una creación, cuenta cómo algo ha llegado a la existencia o cómo un comportamiento, una institución, una manera de trabajar, se han fundado.”35
“Todo mito de origen narra y justifica una situación nueva –nueva en el sentido de que no estaba desde el principio del Mundo–. Los mitos de origen prologan y completan el mito cosmogónico: cuentan cómo el Mundo ha sido modificado, enriquecido o empobrecido.”36

La gran mayoría de nuestras acciones son para obtener la información necesaria para resolver las incertidumbres que establecemos, como lo son las religiones, los mitos, las creencias o la ciencia que dan respuesta a los enigmas que encontramos en nuestra vida, su función es la de dar respuesta, explicar, en definitiva, ordenar nuestra mente, ordenar nuestras percepciones, nuestra memoria, nuestras ideas. Lo mismo sucede pues con los calendarios, las agendas, los horarios o los relojes. Mientras que el resto de nuestras acciones son para reproducir a nuestros genes o para mantener nuestro orden termodinámico con el metabolismo o la replicación celular.
Que el sistema nervioso sea una estructura disipativa de incertidumbre implica que este está constantemente guiando al cuerpo para resolver las incertidumbres que establece. Nuestras acciones, nuestra conducta, están dirigidas hacia resolver las incertidumbres que establece el sistema nervioso. El fin, el telos, el objetivo de nuestras acciones es resolver las incertidumbres que establece nuestro sistema perceptivo.





Conclusión


“Cuando no sabemos la verdad de una cosa, es bueno que haya un error común que fije el espíritu de los hombre, […] porque la enfermedad principal del hombre es la curiosidad inquieta por las cosas que no puede saber, y no le resulta tan perjudicial estar en el error como en esa curiosidad inútil.”
Pascal, “Pensamientos”


[Si H1 es (V) -->] El comportamiento humano no es otra cosa que consumir orden en diferentes formas, y a la vez, disipar entropía en sus distintas formas.

El ser humano es una estructura disipativa de entropía. Una estructura, un sistema, un cuerpo que consume energía útil (ATP) e información, y que disipa entropía e incertidumbre. Dado que el sistema nervioso es una estructura disipativa de incertidumbre, todas nuestras acciones son o bien para resolver las incertidumbres establecidas por este o bien para mantener el orden termodinámico de nuestro cuerpo. Vivir consiste en trabajar para mantenerse ordenado. Vivir es consumir energía útil para salvar el orden termodinámico, e información para mantener el equilibrio del sistema nervioso.
En conclusión: podemos decir que se puede, desde una perspectiva física, comprender la conducta de los seres humanos y predecirla. Siendo pues los seres humanos estructuras físicas que se comportan como estructuras disipativas de entropía. Comprender que el sistema nervioso es una estructura disipativa de entropía de la información, es fundamental para entender nuestra conducta. La vida del ser humano no es otra cosa que la vida de una estructura disipativa de entropía informacional (el sistema nervioso) y la vida de una estructura disipativa de entropía termodinámica (el sistema metabólico). Nuestra vida es la unión de estas dos formas de vida, de estas dos naturalezas, de la vida del alma y de la vida del cuerpo.

                               Febrero de 2012, Sabadell.
Elià Barrull Prat.




Referencias Bibliográficas

1. Margulis y Sagan, 1996, pág. 23
2. Dyson, F.J. (1999). “Los orígenes de la vida”. (Trad. Ana Grandal). Madrid: Cambridge University Press.
3. Margulis y Sagan, 1996, pág. 41
4. Schrödinger, 1984, pág. 105
5. Ibíd., pág. 105
6. Philip Nelson, 2005, pág. 559
7. Margulis y Sagan, 1996, pág. 26 
8. Schrödinger, 1984, pág. 102
9. Margulis y Sagan, 1996, pág. 22
10. Ibíd., pp. 22-23
11. Ibíd., pág. 67
12. Norwich, 1993, pág. 18
13. Gombrich, 1982, pág. 262
14. Norwich, 1993, pág. 19
15. Ibíd., pág. 13
16. Ibíd., pág. 13
17. Ibíd., pág. 15
18. Nietzsche, 1979, pág. 38
19. Russell, 2010, pág. 70
20. Tolstoi, N. (1982). “¿Qué es el arte?”. Barcelona: Ediciones Mascarón.
21. Jaspers, K. (2011). “El problema de la culpa”. Madrid: Espasa Libros.
22. Russell, B. (1983). “Los problemas de la filosofía”. Barcelona: Editorial Labor.
23. Gevaert, J. (1976). “El problema del hombre. Introducción a la antropología filosófica”. Salamanca: Ediciones Sígueme.
24. Strauss, L. (2006). “El problema de Sòcrates”. Enciclopedia Catalana, SAU.
25. Heidegger, M. (1954). “Kant y el problema de la metafísica” México: Fondo de cultura económica.
26. Gombrich, 1982, pág. 28
27. Ibíd., pág. 19
28. Popper, K. (1995). “La responsabilidad de vivir”. (Trad. Concha Roldán). Ediciones Paidós Ibérica, S.A.,
29. Kuhn, 2006, pág. 105
30. Hempel, 1976, pág. 108
31. Génesis, Capítulo 1.
32. Eliade, 1979, pág. 28
33. Ibíd., pág. 29
34. Eliade, 1983, pág. 25
35. Ibíd., pág. 28




Bibliografía

- Dostoievsky, F. (1969). “El jugador”. (Trad. José Laín Entralgo). Navarra: Salvat Editores y Alianza Editorial.
- Eliade, M. (1979). “Historia de las creencias y de las ideas religiosas II”, (Trad. J. Valiente Malla). Madrid: Ediciones Cristiandad; (1983). “Mito y Realidad”. (5ª ed.) (Trad. Luis Gil). Barcelona: Editorial Labor.
- Elwood Shannon, C. (1949). “A Mathematical Theory of Communication”. Urbana, Illinois: University of Illinois. (Republished in paperback 1963)
- Gevaert, J. (1976). “El problema del hombre. Introducción a la antropología filosófica”. Salamanca: Ediciones Sígueme.
- G. Hempel, C. (1976). “Filosofia de la Ciencia Natural”. (2ª ed.) (Trad. Alfredo Deaño). Madrid: Alianza Universidad.
- Heidegger, M. (1954). “Kant y el problema de la metafísica”. (Trad. Gred Ibscher Roth).  México: Fondo de
- H. Gombrich, E. (1982). “Arte e ilusión”. (2ª ed.) (Trad. Gabriel Ferrater). Barcelona: Editorial Gustavo Gili
- H. Norwich, K. (1993). “Information, sensation and perception”. California: Academic Press, Inc.
- JaspersK. (2010). “El problema de la culpa”. (2ª Impresión) (Trad. Román Gutiérrez Cuartango). Madrid: Espasa Libros.
- J. Dyson, F. (1999). “Los orígenes de la vida”. (Trad. Ana Grandal). Madrid: Cambridge University Press.
- Kuhn, T. (2006). “La estructura de las revoluciones científicas”. (3ª ed.) (Trad. Carlos Solís). México: Fondo de Cultura Económica.
- Margulis, L y Dorion, S. (1996). “¿Qué es la vida?”. (Trad. Ambrosio Garcia Leal). Barcelona: Tusquets Editores.
- Nelson, P. et.al. (2005). “Física Biológica. Energía, Información, vida.”. (Trad. Dr. David Jou Mirabent). Barcelona: Editorial Reverté.
- Nietzsche, F. (1976). “Así hablaba Zaratrustra”. (Trad. Juan Fernandez). Buenos Aires: Ediciones Siglo XX
- P. Cardinali, D. (1992). “Manual de Neurofisiología”. Madrid: Ediciones Díaz de Santos.
- Russell, B. (1983). “Los problemas de la filosofía”. (8ª ed.) (Trad. Agustín Arrieta). Barcelona: Editorial Labor;  (2010). “Por qué no soy cristiano”. (Trad. Josefina Martínez Alinani). España: Diario público.
- R. Popper, K. (1995). “La responsabilidad de vivir”. (Trad. Concha Roldán). Buenos Aires: Ediciones Paidós Ibérica.
- Schrödinger, E. (1984). “Què és la vida?”. (Trad. Núria Roig). Barcelona: Edicions 62.
- Strauss, L. (2006). “El problema de Sòcrates”. Barcelona: Enciclopedia Catalana, SAU.
- Tolstoi, L. (1982). “¿Qué es el arte?”. (Trad. Carlos Velilla). Barcelona: Ediciones Mascarón.
Cultura Económica.