Creación de
consciencia y los incentivos para consolidarla
Eventos trascendentes;
son aquéllos que involucran incentivos, incentivos que en su forma más
primitiva tienen que ver con la alimentación, un ambiente cálido, una voz
amorosa, sonidos armónicos de baja frecuencia, aromas conocidas, es decir la
madre el padre la familia amorosa.
La repetición de
eventos trascendentes permite, primero, sumar eventos simultáneos y
armonizarlos por sus temporalidades. El cerebro, que trabaja con potenciales
eléctricos, suma de manera geométrica esa simultaneidad y detona la generación
de endorfinas que se hacen disponibles para todos los receptores que por este
efecto producen placer.
Cómo la vida (y la muerte) brota del desorden (por PHILIP BALL; ver nota)
Se pensó que la vida obedecía a su propio
conjunto de reglas. Pero como los sistemas simples muestran signos de
comportamiento realista, los científicos están discutiendo sobre si esta
complejidad aparente es toda una consecuencia de la termodinámica.
¿Cuál es la diferencia entre la física y la
biología? Toma una pelota de golf y una bala de cañón y déjalos caer de la
Torre de Pisa. Las leyes de la física te permiten predecir sus trayectorias
casi tan exactamente como podrías desear.
Ahora haz el mismo experimento de nuevo,
pero reemplaza la bala de cañón con una paloma.
Los sistemas biológicos no desafían las leyes físicas, por supuesto, pero tampoco parecen ser predichas por ellos. En cambio, están dirigidos a objetivos: sobrevivir y reproducirse. Podemos decir que tienen un propósito - o lo que los filósofos han llamado tradicionalmente una teleología - que guía su comportamiento. De la misma manera, la física ahora nos permite predecir, a partir del estado del universo una mil millonésima de segundo después del Big Bang, que se ve muy parecido al día de hoy. Pero nadie se imagina que la aparición de las primeras células primitivas en la Tierra condujo previsiblemente a la raza humana. Parece que las leyes no dictan el curso de la evolución.
Los sistemas biológicos no desafían las leyes físicas, por supuesto, pero tampoco parecen ser predichas por ellos. En cambio, están dirigidos a objetivos: sobrevivir y reproducirse. Podemos decir que tienen un propósito - o lo que los filósofos han llamado tradicionalmente una teleología - que guía su comportamiento. De la misma manera, la física ahora nos permite predecir, a partir del estado del universo una mil millonésima de segundo después del Big Bang, que se ve muy parecido al día de hoy. Pero nadie se imagina que la aparición de las primeras células primitivas en la Tierra condujo previsiblemente a la raza humana. Parece que las leyes no dictan el curso de la evolución.
La teleología (las
causas finales) y la posibilidad de ocurrencia histórica de la biología, según
Ernst Mayr, la hace única entre todas las ciencias. Ambas características son
la base del principio general que guía a la biología; la evolución. Esto
depende de las probabilidades y el azar, pero la selección natural da la
apariencia de tener una intención y un propósito. Los animales buscan el agua,
no por la guía de alguna atracción magnética, sino porque su instinto, su
intención, es la de la supervivencia. Las piernas sirven al propósito de, entre
otras cosas, transportarlos hacia el agua.
Mayr, sostiene que
esas características hacen a la biología excepcional –una ley en sí misma. Pero
recientes desarrollos en física de los no-equilibrios, sistemas complejos y la
teoría informática, están poniendo a prueba esa visión.
Una vez que nosotros
en relación a las cosas vivientes, como entes llevando a cabo un cómputo, recolección
y almacenamiento de datos en un ambiente impredecible, de las capacidades y
consideraciones tales como la reproducción, adaptación, normativa, el propósito
y el significado puede entenderse como provenientes no de una improvisada
evolución, sino como inevitables corolarios de las leyes de la física. En otras
palabras, parecen ser un tipo de la física de las cosas haciendo cosas y
evolucionando para hacer cosas. Significado e intención, se piensa que son la definición
de los sistemas vivos, pueden hacerlos emerger naturalmente a través de las
leyes de la termodinámica y la mecánica estadística.
El pasado noviembre,
físicos, matemáticos y científicos de la computación junto con biólogos
moleculares y evolucionistas se reunieron para hablar (y alguna veces
argumentar) al respecto de estas ideas en un taller de trabajo en el Instituto
Santa Fe en Nuevo México, la meca de la ciencia de los “sistemas complejos” Ellos
se preguntaron: ¿Qué tan especial (o nó) es la biología?
Es sorprendentemente
difícil de creer que no hubo consenso. Pero un mensaje emergido de ahí fue
claro que, sí existe un tipo de física detrás de la teleología y su
normatividad, tiene algo que ver con el mismo concepto que parece haber sido
instalado en el corazón de la física fundamental en sí misma: la informática
(la medida numérica de la incertidumbre de un experimento).
De acuerdo con la termodinámica,
la capacidad para extraer trabajo utilizable desde las fuentes de energía del
universo siempre disminuyen. Los paquetes de energía están reduciéndose. Las
concentraciones de calor están siendo suavizadas. En cualquier proceso físico,
una parte de la energía es inevitablemente disipada como calor inutilizable,
que se pierde por el movimiento azaroso de las moléculas. Este azar es igual a
la cantidad definida por la termodinámica llamada la entropía (una medida del
desorden). la cual siempre se está incrementando. Esta es la segunda ley de la
termodinámica. En algún momento, todo el universo será reducido a un uniforme, aburrido
revoltijo: un estado de equilibrio donde la entropía se habrá maximizado y nada
significativo tendrá lugar otra vez.
¿Estamos realmente
condenados a ese triste destino? Maxwell se resistía en creerlo y, en 1867 él
estableció, tal como él lo expresó, “hacer un agujero” a la segunda ley. Su
objetivo fue, empezar con tener una caja con moléculas moviéndose de manera
azarosa y desordenada, separar las moléculas rápidas de las lentas y con ello
reducir la entropía del proceso.
Imagine un pequeña
criatura –el físico William Thomson más tarde la llamó, un demonio- que puede
observar cada molécula de manera individual en la caja. El demonio separa la
caja en dos compartimientos, con una puerta deslizante entre las dos. Cada vez
que él ve una molécula particularmente energética “caliente” aproximándose a la
puerta desde la parte derecha del compartimiento, abre la puerta para dejarla
pasar. Y cada vez que una molécula lenta “fría” se aproxima por la izquierda,
la deja pasar al otro lado también. Finalmente, él tiene un compartimiento de
gas frío a la derecha y gas caliente a la izquierda: con lo que se tendrá un
recipiente con los beneficios de poder ejecutar trabajo.
Esto es posible sólo
por dos razones. Primero, el demonio tiene más información que nosotros: Es
decir él puede ver las moléculas de manera individual, en vez de promedios
estadísticos. Y, segundo, tiene la intención: un plan para separar las
moléculas calientes de las frías. Mediante la extrapolación de este
conocimiento con intención, el demonio puede desafiar las leyes de la
termodinámica.
Al menos, así parece,
se llevó un ciento de años para entender para qué el demonio de Maxwell no pudo
de facto vencer a la segunda ley y evitar el inexorable y conducente camino
hacia muerte, es decir el equilibrio universal. Y el razonamiento nos muestra
que hay una profunda conexión entre termodinámica y el procesamiento de los
datos, o, en otras palabras, la computación. El físico Alemán – Estadounidense
Rolf Landauer mostró que, aun cuando el demonio pueda recolectar información y
mover la puerta (sin fricción), es decir sin consumo de energía, se deberá
pagar una penalización al final. Debido a que no se puede tener una ilimitada memoria
de cada movimiento molecular, al final se deberá llevar a cabo una limpieza de
memoria, es decir olvidar lo visto y volver a empezar, antes de que pueda
continuar devorando energía. Este acto de borrado de memoria tiene un
inevitable precio: Disipa energía y, en consecuencia incrementa la entropía.
Todos las ganancias contra la segunda ley realizadas por el excelente trabajo
del amanuense demonio se cancela por el “límite de Landauer”, el costo finito
del borrado de los datos (o más general, el de convertir información de una
forma a otra).
Los organismos vivos
se parecen más al demonio de Maxwell. Mientras que en un recipiente lleno de
reactivos químicos finalmente consumirán su energía y caerán en un aburrido estado
de inacción y equilibrio., los sistemas vivos han evitado colectivamente el
estado inerte de equilibrio desde el origen de la vida, ya desde 3.5 miles de
millones de años. Ellos consumen energía de su entorno para sostener este
estado de no equilibrio, teniendo una “intención”. Aun simples bacterias se
mueven con un “propósito” hacia las fuentes de calor y nutrientes. Erwin
Schrödinger en 1944, En su libro ¿Qué es la vida? Expresa esto diciendo que los
organismos se alimentan de “entropía negativa.”
Ellos consiguen
alimentarse, decía Schrödinger, capturando y almacenando información. Alguna de
esa información es codificada en sus genes, pasada de una generación a otra y
de ésta a la próxima, es decir, un conjunto de instrucciones para el
aprovechamiento de la entropía negativa. Schrödinger no supo dónde se mantenía
la información o cómo se codificaba, pero su intuición de que ésta se escribía
en lo que él llamó “un cristal no periódico” inspirando a Francis Crick, él
mismo entrenado como físico y a James Watson que en 1953 propusieron una tesis
de cómo el código genético puede ser codificado en la estructura molecular del
ADN.
Un genoma, entonces,
es al menos en parte un registro del conocimiento utilizable que ha permitido a
los ancestros de los organismos, justo atrás en el pasado distante, sobrevivir
en nuestro planeta. De acuerdo con David Wolpert, un físico matemático del
Instituto Santa Fe, quien convoca el reciente taller y su colega Artemy
Kolchinsky, ellos apuntan que un bien adaptado organismo está correlacionado
con su medio ambiente. Si una bacteria, dependiendo de si se dirige a la
izquierda o derecha donde la fuente de alimento está, es que está mejor
adaptado y por ello se desarrollará mejor, en tanto que otros que lo hacen al
azar sólo encuentran los nutrientes por accidente. Una correlación entre el
estado de los organismos y su medio ambiente implica que ellos comparten
información en común. Wolpert y Kolchinsky dicen que esta es la información que
ayuda a los organismos permanecer fuera del equilibrio, debido a que, según el
demonio de Maxwell, ellos pueden ajustar personalizando su comportamiento para
extraer trabajo de fluctuaciones en su medio ambiente. Si el organismo no puede
obtener esta información, podría gradualmente revertirlo hacia el equilibrio y
morir.
Viéndolo de esta
manera, la vida puede ser considerada como un cómputo que tiene como objetivo
la optimización del almacenamiento y uso de información significativa. Y la
vida torna a ser extremadamente buena en sí. La resolución de Landauer del enigma
del demonio de Maxwell establece un límite inferior absoluto de la cantidad de
energía que un cómputo de determinado valor de memoria requiere, llamado el
costo energético del olvido. La mejor computadora hoy día, es, con mucho una
generadora de basura energética, comparada con aquélla, consumiendo y disipando
más de un millón de veces más. Pero, de acuerdo con Wolpert, “un estimado muy
conservador de la eficiencia termodinámica del total de cómputos realizados por
una célula es que es de alrededor de 10 veces más que el límite de Landauer.
La consecuencia, dice,
es que “la selección natural ha estado muy preocupada con la minimización del
costo termodinámico de la computación. Ésta hace todo lo necesario para reducir
la cantidad total de cómputos que una célula lleva a cabo.” En otras palabras,
la biología (posiblemente exceptuando a nosotros mismos) parece tener mucho
cuidado de nó repensar el proceso de sobrevivir. Ese asunto del costo –
beneficio de computarizar a nosotros mismos en el camino hacia la vida, dice,
ha sido muy considerado, con mucho en la biología.
El darwinismo
inanimado
Los organismos
vivientes pueden ser considerados como entes que se acoplan a su medio
ambiente, consumen energía mediante el uso informático y evaden el equilibrio.
Ciertamente, es un mordisco para una bocaza. Pero nótese que no dice nada en
relación a los genes y la evolución, en la cual Mayr, como muchos biólogos,
asumen que la intención biológica y el propósito dependen de la evolución.
¿Qué tan lejos puede
esta imagen llevarnos? Los genes refinados por la selección natural son,
indudablemente la parte central de la biología. Pero podría ser que la
evolución por selección natural es por sí misma un caso particular de un más
general imperativo hacia la función y propósito aparente que existe en un
universo físico puro. Esto empieza a mirarse de esa manera.
La adaptación aquí tiene
un significado más específico que la imagen típica de la supervivencia de un
organismo bien equipado de Darwin. Una dificultad con la visión Darwiniana es
que no hay manera de definir un organismo bien adaptado excepto si se le ve en
retrospectiva. El “ajuste adaptivo” es aquello que se convierte en ser mejor
para la supervivencia y replicación, pero no se puede predecir lo que este ajuste
implica. Las ballenas y el plancton son dos formas de vida bien adaptada, pero
en formas que reflejan una poca relación obvia entre una y la otra.
La definición de
England de “adaptación” es muy cercana a la de Schrödinger y en consecuencia a
la de Maxwell: Una bien adaptada entidad puede absorber energía eficientemente
de un medio ambiente impredecible y variante. Es como la persona que se
mantiene de pie en un barco mientras que otros caen debido a que él está mejor
adaptado a las variación en la cubierta. Usando los conceptos y métodos de la
estadística matemática en un intervalo de no equilibrio, England y sus colegas
arguyen que esos sistemas de bien adaptados son los que absorben y disipan la
energía del medio ambiente, generando entropía en los procesos.
Los sistemas complejos
tienden a establecerse en esos estados bien adaptados con una facilidad
sorprendente. Dice England, la materia con variaciones térmicas, frecuentemente
cambian espontáneamente a formas que son buenas absorbiendo trabajo del medio
ambiente variante en el tiempo.
No hay nada en este
proceso que implique el acomodamiento gradual al entorno mediante mecanismos
darwinianos de replicación, mutación y rasgos hereditarios. No hay replicación
de nada. Lo que es excitante, en relación a esto es que esto significa que
cuando nosotros damos un recuento físico de los orígenes de algunas estructuras
que parecen bien adaptadas vemos que, éstas nó necesariamente han tenido padres
en la forma del sentido biológico, dijo England. “Tú puedes explicar la adaptación
evolutiva usando termodinámica, aun en los casos más controversiales donde no
hay auto replicadores y rompimiento de la lógica darwiniana”, en tanto que el
sistema en cuestión es complejo, versátil y suficientemente sensible para
responder a las variaciones de su entorno.
Pero no hay ningún
conflicto entre la adaptación física ni la darwiniana. De hecho, la darwiniana
puede ser vista como un caso particular de la física. Si la replicación está
presente, entonces la selección natural se convierte en la ruta mediante la
cual los sistemas adquieren la habilidad para absorber trabajo (la entropía
negativa de Schrödinger) del entorno. Auto replicación es, de hecho, un buen
mecanismo especializado para la estabilización de sistemas complejos, y así, no
sorprende que esto es lo que la biología utiliza. Pero en un mundo inerme donde
las replicaciones usualmente no suceden, estructuras disipadoras bien adaptadas
tienden a ser aquéllas que están altamente organizadas, tales como las ondulaciones
en la arena y las dunas formadas por la azarosa danza del viento. Buscando de
esa manera, la evolución darwiniana puede ser considerada como una instancia
específica de los principios más generales de la física que gobiernan los
sistemas no equilibrados.
Máquinas de
predicción
Esta imagen de
estructuras complejas adaptándose a un entorno variante nos permite también
deducir algo en relación a cómo esas estructuras almacenan información.
Brevemente, en tanto que esas estructuras, cualesquiera que sean vivas o nó,
están obligando a usar la energía disponible eficientemente, están
convirtiéndose en “máquinas de predicción.”
Es casi una
característica definitoria de la vida que los sistemas biológicos cambien sus
estados en respuesta a algunas señales directrices del entorno. Algo sucede, tú
respondes. Las plantas crecen hacia la luz, ellas producen toxinas en respuesta
en respuesta a patógenos. Esas señales son típicamente impredecibles, pero los
sistemas vivientes aprenden de su experiencia, almacenando información respecto
de su entorno y usándolo para guiar su comportamiento futuro. (Los genes, en
esta imagen, exactamente dan la esencia básica y de propósito general)
La predicción no es
opcional, aunque, de acuerdo con el trabajo de Susanne Still de la universidad
de Hawái, Gavin Crooks, ex de los Laboratorios Nacionales de Lawrence Berkeley
en California y sus colegas, predecir el futuro pareciera ser esencial para
cualquier sistema de energía – eficiencia en un entorno azaroso y variante.
Hay un costo
termodinámico en almacenar información en relación al pasado que no tiene
valores predecibles para el futuro, Still y sus colegas, muestran, para ser
máximamente eficiente, un sistema tiene que ser selectivo. Si éste tuviera que
recordar indiscriminadamente todas las cosas que suceden, se incurriría en un
gran costo de energía. Por otra parte, si no molesta del todo, almacenar
cualquier información en relación al entorno, estaría en constante lucha para
hacer frente con lo inesperado. “una máquina termodinámicamente óptima, debe
balancear la memoria en relación a la predicción mediante la minimización de su
nostalgia, la inservible información del pasado, dijo un coautor, David Sivak,
ahora en la universidad Simon Fraser en Burnaby, Columbia Británica. Breve
mente, será bueno que la información de la alimentación significativa, la cual
es deseable sea útil para la sobrevivencia futura.
Usted espera que la
selección natural favorezca a los organismos que usan energía eficientemente.
Pero, aun dispositivos biomoleculares individuales tales como las bombas y
motores en nuestras células deben, de manera importante, aprender del pasado
para anticipar el futuro. Adquirir eficiencia relevante, Still dijo, esos
dispositivos deben “implícitamente construir representaciones concisas del
mundo enfrentado hasta entonces, permitiéndose anticipar lo que viene.”
La
termodinámica de la muerte
Aun si alguna de las
características procesadoras de información básica de los sistemas vivientes hubieran
yá aparecido, en la ausencia de evolución o replicación, mediante termodinámica
no equilibrada, usted puede imaginar esos rasgos más complejos, el uso de herramienta,
digamos, o cooperación social, deben ser proveídos por la evolución.
Bien, no contando con
eso, esos comportamientos (comúnmente se piensa que serán el dominio exclusivo
del nicho evolutivo altamente avanzado que incluye primates y aves) pueden ser
emulados en un modelo simple consistente de partículas interactuantes. El truco
está, en que el sistema está guiado por un límite, actúa de una manera en que
minimiza la cantidad de entropía (en este caso, definida en términos de las
diferentes trayectorias posibles que las partículas puedan tomar) que se genera
dentro de un determinado lapso de tiempo.
La maximización de la
entropía ha sido largamente pensada para ser el rasgo de los sistemas no
equilibrados. Pero el sistema, en este modelo obedece a una regla que permite
maximizar la entropía sobre una ventana fija de tiempo que se ajusta hacia el
futuro. En otras palabras, tiene un objetivo en la mira. En efecto, el modelo
busca todas las trayectorias que una partícula pueda tomar y las obliga a
adoptar la trayectoria que produce la mayor entropía. Hablando crudamente, ésta
tiende a ser la trayectoria que mantiene abierto el mayor número de opciones
para cómo las partículas se pueden mover subsecuentemente.
Uno puede decir que el
sistema de partículas experimenta un tipo de urgencia para preservar la
libertad de las acciones futuras y que esta urgencia guíe su comportamiento en
cualquier momento. Los investigadores que desarrollaron el modelo, Alexander
Wissner-Gross de la universidad de Harvard y Cameron Freer, un matemático del
Instituto Tecnológico de Massachusetts, Llaman a esto una “fuerza entrópica causal.”
En simulaciones de computadora de configuraciones de partículas de forma de
disco moviéndose en configuraciones específicas, esta fuerza entrópica crea
resultados que son inquietantes sugerencias de inteligencia.
En un caso, un disco
grande fue capaz de usar un disco pequeño para extraer un segundo disco pequeño
de un tubo estrecho, un proceso que pareciera como de, el uso de herramienta.
Liberar el disco aumentó la entropía del sistema. En otro ejemplo, dos discos
en compartimientos separados sincronizaron sus desempeños para tirar de un
disco grande hacia debajo de tal manera que pudieran interactuar con él, dando
la apariencia de cooperación social.
Por supuesto, estos
simples agentes interactuantes, tienen el beneficio de visión de futuro. La
vida, como regla general, no lo hace. Así ¿cuán relevante es esto para la
biología? Eso no es claro, aunque Wissner-Gross dice que él está trabajando
para establecer “un práctico, biológicamente posible, mecanismo para fuerzas
entrópicas causales.” En tanto, él piensa que esta visión puede tener
subproductos prácticos, que ofrecen un atajo hacia la inteligencia artificial.
“Yo predigo que un camino más rápido para alcanzarlo será el descubrir tal
comportamiento primero y entonces trabajar hacia atrás desde los principios físicos
y límites, más que trabajar hacia adelante desde el cálculo particular o con
las técnicas de predicción.” Él dijo. En otras palabras, primero encontrar un
sistema que haga lo que tú quieres que haga y luego imaginar cómo lo hace.
Envejecer, también, ha
sido convencionalmente sido vista como un rasgo dictado por la evolución. Los
organismos tienen un lapso de tiempo que crea oportunidades para reproducirse.
La historia continúa, sin inhibir las prospectivas de sobrevivencia de la
descendencia por que los padres están pegados a ellos por mucho tiempo y
compitiendo por los recursos. Esto seguramente parece ser parte de la historia,
pero Hildegard Meyer-Ortmanns, un físico de la Universidad Jacobs de Bremen en
Alemania, piensa que esa última instancia del envejecimiento es un proceso
físico, no uno biológico, gobernado por la termodinámica de la informática.
Ciertamente, no es un
simple curso de las cosas que suceden. “La mayoría del material programable del
que estamos hechos es renovado antes de que tenga la probabilidad de envejecer”
dice Meyer-Ortmanns, pero este proceso de renovación no es perfecto. La
termodinámica de la informática dicta que ahí debe haber un compromiso entre
precisión y energía. Un organismo tiene un suministro finito de energía, por ello
necesariamente hay una acumulación de errores en el tiempo. El organismo,
entonces, tiene que consumir una gran cantidad incremental de energía para
reparar esos errores. El proceso de renovación finalmente produce copias
defectuosas para funcionar propiamente, la muerte sucede.
Lo que la evidencia
empírica parece mostrarnos. Ha sido largamente sabido que las células humanas
se muestran hábiles para replicarse más de 40 a 60 veces (llamado el límite de
Hayflick) antes de que se detengan dando paso a la senectud. Recientes
observaciones sugieren que puede haber razones fundamentales del por qué los
humanos no puede sobrevivir más allá de los 100 años.
Hay un corolario a
esta aparente urgencia de energía-eficiencia de organizados sistemas
predictivos para aparecer en un fluctuante entorno no equilibrado. Nosotros
mismos somos ese sistema, al igual que todos nuestros ancestros hasta la
primera célula primitiva. Y la termodinámica no equilibrada parece decirnos que
esto es justamente lo que importa bajo esas circunstancias. En otras palabras,
la aparición de la vida en el planeta así como en la tierra primigenia, está
imbuida de fuentes de energía tales como la luz del sol y actividad volcánica
que mantiene las cosas en un revoltijo sin equilibrio, empieza a aparecer no un
extremadamente no deseado evento, como muchos científicos han asumido, sino
como una inevitable virtualidad. En 2006, Eric Smith y después Harold Morowitz
del Instituto Santa Fe, argumentaron que la termodinámica de los sistemas no
equilibrados propician la emergencia por organizarse en sistemas complejos más
parecidos a una tierra prebiótica (inerme) lejos del equilibrio de lo que
pudiera ser si los ingredientes de la química primera fueran puestos en una
“charco cálido” (como Darwin lo propuso) para su lenta ingesta.
En la década desde que
se hizo esta argumentación. Los investigadores han agregado detalles y vistazos
de los análisis. Aquellas cualidades que Ernst Mayr pensó esenciales a la
biología (significado e intención) pueden surgir como una consecuencia natural
de la estadística y la termodinámica. Y aquellas propiedades pueden en
consecuencia conducir naturalmente a algo como la vida.
Al mismo tiempo, los
astrónomos nos han mostrado también que hay muchos mundos, según estimaciones miles
de millones, orbitando otras estrellas de nuestra galaxia. Muchos están muy
lejos de algún equilibrio, y al menos unos cuantos parecidos a la tierra. Y que
algunas de nuestras reglas también aplican a ellos.
·
Philip Ball es un escritor y escritor de ciencia basado
en Londres que contribuye con frecuencia a la Naturaleza, New Scientist,
Prospect, Nautilus y The Atlantic, entre otras publicaciones. Sus libros
incluyen Bright Earth, Invisible y más recientemente, The Water Kingdom.
No hay comentarios:
Publicar un comentario