¿Quién ha leído el libro “El Punto Crítico de la Vida”? Cuéntamelo.

La tercera conferencia trata sobre las fronteras y los límites de la ciencia y la tecnología modernas.

(Zhang Qinyuan, Universidad Normal del Este de China, junio de 65438 + octubre de 65438 + septiembre de 2005)

Primero, la ciencia física más allá del espacio del sentido común

Profundizar en los extremos de lo macro y lo micro.

La ciencia ha logrado grandes logros en el siglo XX. En términos de comprensión de los niveles de energía de la materia y sus leyes básicas de movimiento, involucra los siguientes cinco niveles de energía del sistema material: primero, los niveles de energía atómica y molecular; segundo, el nivel nuclear, tercero, el nivel de quarks; , el subnivel de luz; quinto, nivel cósmico. Los primeros cuatro niveles pueden clasificarse como microsistemas. El quinto nivel se puede clasificar como un macrosistema junto con los cuerpos celestes, los planetas y las estrellas de la Tierra.

Aunque los niveles atómico y molecular se entendieron inicialmente en el siglo XIX, no fue hasta el siglo XX, especialmente después del nacimiento de la mecánica cuántica en la década de 1920, que la investigación a los niveles atómico y molecular involucró a la física. , química, biología y muchas otras disciplinas, como la química cuántica, la biología molecular, la física de la materia condensada, etc.

Los científicos encabezados por Marie Curie estudiaron la radiactividad de la materia, lo que permitió comprender otro nivel de la materia: el núcleo. El núcleo atómico es un sistema compuesto de neutrones y protones. Los neutrones y los protones están estrechamente combinados para formar el núcleo atómico mediante interacciones fuertes. El estudio de los núcleos atómicos permitió a la gente obtener una nueva fuente de energía: la energía nuclear, y construir con éxito reactores nucleares, logrando el uso pacífico de la energía nuclear.

Los niveles de quarks se descubrieron y estudiaron en la década de 1960. Los científicos han descubierto que los quarks son partículas más básicas que los neutrones, los protones y otras partículas, y que los neutrones, los protones y otras partículas están hechos de quarks. Desde entonces, los científicos han descubierto seis tipos de quarks utilizando aceleradores de energía extremadamente alta. La jerarquía de los quarks sigue las leyes descritas por la cromodinámica cuántica.

El estudio de los niveles de energía de los leptones precede al estudio de los niveles de energía de los quarks. Los primeros cuerpos celestes eran principalmente fotones y electrones. Posteriormente se descubrieron los muones y los tau-neutrinos y sus correspondientes tres neutrinos: los neutrinos electrónicos, los muónicos y los tau-neutrinos. En 1956, Chenning Yang y Tsung-Dao Lee descubrieron la no conservación de la paridad a nivel de los leptones. Diez años más tarde, Weinberg y otros científicos establecieron una teoría unificada electrodébil que describía las leyes del movimiento de los leptones.

La investigación a nivel cósmico se basa en la relatividad general y en observaciones astronómicas, como el corrimiento al rojo de las líneas espectrales de galaxias extragalácticas y la radiación de fondo de las microondas 3K. El corrimiento al rojo de las líneas espectrales de las galaxias extragalácticas y la ley de Hubble indican que el universo se está expandiendo; la radiación de fondo de microondas K indica que el universo primitivo estaba en un estado de alta temperatura y alta densidad, y que el universo nació en el Gran explosión. Hoy en día, los agujeros negros predichos por la relatividad general también han sido confirmados indirectamente por observaciones.

La amplitud espacial de los cinco niveles anteriores varía desde un mínimo de 10 a 19 metros hasta un máximo de 1017 metros (unos 1017 metros), una diferencia de 1036 veces. Sin embargo, la diferencia esencial entre estos cinco planos físicos no es su extensión espacial. A nivel atómico y molecular lo más importante es la interacción electromagnética; a nivel de núcleos atómicos y quarks lo más importante es la interacción fuerte y débil, lo más importante es la interacción electromagnética débil; Es a través del estudio de estos cinco planos físicos que se reconocen cuatro formas básicas de interacción en la naturaleza.

A nivel cósmico, en 1917, Einstein publicó un artículo titulado "Investigación cosmológica basada en la relatividad general", que inició teóricamente el estudio del universo como un todo físico y se convirtió en la cuna de la cosmología icónica moderna. documentos. En 1946, el físico ruso-estadounidense Gamov vinculó por primera vez la relatividad general con la teoría nuclear atómica. Explora el origen de la expansión del universo y la abundancia de elementos en el universo, y propone un modelo cosmológico del Big Bang. En 1965, la radiación de fondo de microondas 3K descubierta por Penzias y Wilson se convirtió en el apoyo más sólido para el modelo cosmológico del Big Bang. Desde entonces, el modelo cosmológico del Big Bang se ha convertido en la corriente principal de la investigación teórica cosmológica y, por lo tanto, se le denomina modelo cosmológico estándar. En la década de 1980, se propuso un modelo cosmológico basado en el Big Bang para describir la explosión del universo primitivo.

En 1989, Estados Unidos lanzó el "Detector de Fondo Cósmico" COBE.1990. El primer lote de datos de detección devueltos muestra que la radiación de fondo de microondas coincide con la curva teórica de 2.730K al 99,75%. La falta de homogeneidad de la radiación de fondo detectada por el satélite COBE en 1992 es coherente con la explosión muy temprana requerida por el modelo cosmológico de explosión térmica.

Basándonos en el modelo cosmológico del Big Bang, hemos explicado con seguridad la estructura, el movimiento y la evolución del universo.

El universo tiene una estructura uniforme e isotrópica y el universo en su conjunto se está expandiendo. El universo se originó a partir de altas temperaturas y altas densidades, y cada punto del espacio está experimentando una gran explosión (sin centro). Desde el momento del BIGBANG, el universo comenzó a expandirse y, a medida que se expandía, la densidad del universo disminuía. La temperatura del universo desciende. En los primeros cien segundos después del Big Bang, la temperatura descendió a 100 mil millones de grados Celsius. Hay partículas elementales como electrones, positrones, neutrinos, fotones, una pequeña cantidad de protones y neutrones en el universo. Cada 654.380 mil millones de fotones (o electrones, positrones o neutrinos) corresponde a un protón o neutrón. 180 segundos después del Big Bang, la temperatura descendió a 10 mil millones de grados Celsius y los protones y neutrones se combinaron para formar núcleos de helio. 700.000 años después del Big Bang, la temperatura descendió a 4.000 grados Celsius y los electrones y los núcleos atómicos se combinaron para formar átomos, que luego formaron galaxias y estrellas. Hoy, 1.500 millones de años después del Big Bang, la temperatura está por debajo de -270 grados Celsius (3K).

¿Cómo será entonces el futuro del universo? Esto depende de la densidad actual de materia en el universo. Si la densidad de la materia es igual o menor que una densidad crítica, el universo se expandirá para siempre. Si la densidad de la materia es mayor que esta densidad crítica, la expansión del universo se desacelerará gradualmente, pasando de expansión a contracción, y eventualmente regresará al estado de alta temperatura y alta densidad como el Big Bang. En 1998, los científicos descubrieron que la expansión del universo se está acelerando y parece probable que el universo continúe expandiéndose para siempre y que la evolución del universo sea infinita.

El camino hacia la unificación

Siguiendo el camino guiado por la teoría de la relatividad y la mecánica cuántica, en la primera mitad del siglo XX se empezó a buscar un nivel superior de unidad. , es decir, la unidad de fuerzas naturales o la interacción de fuerzas unificadas. Hasta ahora sólo se han descubierto cuatro fuerzas naturales: la fuerza fuerte, la fuerza electromagnética, la fuerza débil y la gravedad. Estas cuatro fuerzas o interacciones varían mucho en intensidad y alcance de fuerzas. A primera vista, no parece existir una base unificada. ¿Pero realmente no hay ningún mecanismo unificado detrás de esto? Einstein no lo creía así. Él cree que perseguir la unidad de la naturaleza no es sólo un deber sagrado de los científicos, sino también su capacidad. Dijo: "¿Realmente tenemos alguna esperanza de encontrar el camino correcto? Más que eso, ¿hay lugar para que este camino correcto sea algo más que nuestra fantasía? ¿Podemos esperar que la experiencia nos lleve por este camino correcto? Si existe una teoría (como la mecánica clásica) que puede hacer juicios correctos sobre la experiencia en gran medida, pero no vuelve a la fuente, puedo responder sin dudarlo que, en mi opinión, efectivamente existe un camino correcto, y Tener la capacidad de encontrarlo "De hecho, Einstein ha estado trabajando en la unificación de la interacción electromagnética y la interacción gravitacional desde que fundó la teoría general de la relatividad. Aunque no tuvo éxito, siempre creyó que alguien continuaría con sus asuntos pendientes en el futuro.

En el año de la muerte de Einstein (1955), Chen Ning Yang fundó la teoría de la simetría de calibre. Según la teoría de la simetría de calibre, la interacción fuerte, la interacción electromagnética, la interacción débil y la interacción gravitacional se rigen por el principio de simetría de calibre. Debido a que estas cuatro interacciones corresponden a cuatro fuerzas, Chen Ning Yang lo llama una ventaja simétrica. Hay cuatro interacciones porque las cuatro interacciones se rigen por simetrías de calibre.

En 1969, Weinberg y Salam tomaron la iniciativa de unificar la interacción débil y la interacción electromagnética basándose en la teoría de la simetría de calibre. Una predicción importante de la teoría unificada electrodébil es que debería haber un flujo neutro en las reacciones de partículas elementales de interacción débil e interacción electromagnética, como el proceso de dispersión de electrones y neutrinos. El flujo neutro es un flujo de partículas formado por partículas neutras como Z. Además del flujo neutro, también existe la corriente cargada transmitida por W y W. W, W y Z son todas partículas estándar. En 1982, un equipo experimental del Centro de Europa Occidental utilizó computadoras para examinar 140.000 casos de colisiones en un colisionador protón-antiprotón. Finalmente, se encontraron cinco ejemplos que confirman la producción de partículas W. En 1983, se descubrieron seis ejemplos más de partículas Z en el Centro de Europa Occidental. Las masas de estas tres partículas medidas en el experimento son totalmente consistentes con la teoría. La teoría unificada electrodébil fue confirmada experimentalmente. Weinberg y Salam ganaron el Premio Nobel de Física en 1979.

El éxito de la unificación electrodébil aumenta la confianza en unificar las cuatro interacciones. En la década de 1970, se estableció una teoría que unifica la interacción fuerte, la interacción débil y la interacción electromagnética basada en las matemáticas del grupo SU(5), que se denomina gran teoría unificada SU(5).

La gran teoría unificada de Su (5) puede explicar la comprensión actual de la interacción fuerte, la interacción electromagnética y la interacción débil, pero sus dos predicciones importantes son la desintegración de protones y la existencia de monopolos magnéticos que no han sido confirmadas experimentalmente. .

La vida media actual del protón dada por los experimentos es casi infinita, porque la vida media de un protón es superior a 654,38 mil millones de años, pero en la gran teoría unificada, la vida media de un protón es inferior a 65438+1 mil millones de años. En cuanto a los monopolos magnéticos, nadie ha visto nunca ninguno, porque un polo sur magnético siempre va acompañado de un polo norte magnético. Aunque el famoso físico Dirac propuso en 1937 la hipótesis de que podrían existir monopolos magnéticos, la gente no la tomó en serio. Ahora la gran teoría unificada ha planteado la hipótesis de la existencia de monopolos magnéticos, lo que ha obligado a muchos laboratorios a intentar encontrarlos, pero hasta el momento.

Aunque todavía existen muchas dificultades con las grandes teorías unificadas hoy en día, muchos científicos no creen que debamos renunciar a la idea de la unificación. Por ejemplo, Yang Zhenning cree que la unidad es la dirección. El problema actual probablemente se debe a que el concepto de simetría no se ha ampliado bien. Al hablar de la relación entre simetría y la teoría unificada de la interacción, dijo: "Los problemas que no se resuelven hoy probablemente se deben a que no hemos extendido el concepto de simetría hasta el final. En los últimos 20 años, el concepto de simetría Se ha vuelto popular y se volvió a popularizar. En 1973, alguien propuso una estructura matemática muy inteligente llamada supersimetría. En 1976, alguien propuso un nuevo concepto de simetría llamado supergravedad. . La propuesta de supercuerdas ha ampliado considerablemente el concepto de simetría hoy en día, lo que antes era inimaginable... No nos atrevemos a hablar de su futuro ahora. Pero si preguntas sobre los fundamentos de la física, espero que esta dirección general. ampliar un poco más el concepto de simetría y, a través de estos esfuerzos, intentar resolver algunos problemas que aún no hemos resuelto. Creo que el 90% de la gente pensará que esta es la dirección correcta, aunque ¿algunos detalles? Todavía se están explorando algunos aspectos de esta dirección correcta." (Yang Zhenning, Nature Magazine, 1995, 10, página 257)

La ciencia no dejará de desarrollarse, y la ciencia física en el siglo XXI no se detendrá. Enfrentando nuevas avances. Aunque tanto la relatividad como la mecánica cuántica tienen éxito y se han combinado en el campo de la teoría cuántica de campos, en los últimos 10 años el desarrollo de la relatividad y la mecánica cuántica se ha vuelto inconsistente. Como dijo Weinberg, ahora se ha descubierto que "la mecánica cuántica y la relatividad especial son casi incompatibles, y su armonía en la teoría cuántica de campos impone fuertes limitaciones a los patrones de interacción de las partículas (S. Weinberg, "The Ultimate Theory" "Dream". , Hunan Science and Technology Press, 2003, página 114) La incompatibilidad entre la mecánica cuántica y la relatividad muestra principalmente que la relatividad es una teoría local. Por otro lado, la mecánica cuántica es una teoría cuántica no local. El desarrollo más importante en los experimentos de mecánica cuántica en la última década. La no localización de la mecánica cuántica se manifiesta principalmente en un fenómeno muy extraño: el entrelazamiento cuántico, es decir, dos partes distantes de un sistema cuántico tienen una correlación entre ellas. pero la teoría de la relatividad cree que el fenómeno del entrelazamiento cuántico está respaldado por el teorema de Bell y el experimento de Eisbeckett (sobre el entrelazamiento cuántico, dimos una conferencia en la Universidad de Fudan no hace mucho. Shi dijo que también mencionó los problemas que enfrenta la ciencia física. Creía que hay dos problemas importantes en la ciencia contemporánea, uno es el cuásar y el otro es la ruptura de la simetría y el otro es la invisibilidad de los quarks. Li Zhengdao señaló que el problema de los cuásares es en realidad un problema de mecanismo energético. El brillo de las estrellas puede ser entre 1 y 65.438 veces mayor que el del Sol en un instante, y las supernovas pueden ser entre 1 y 200.000. veces más brillantes que las novas. Sin embargo, los quásares son más potentes y su brillo es la suma del brillo de 65.438+0.000 galaxias. Desde el descubrimiento de los quásares en 65.438+0.966.5438+0 años, se desconoce su mecanismo energético. Sólo sabemos que es mucho más que la energía nuclear. En 1987 se descubrió que el brillo de los quásares se duplicó repentinamente. La razón aún no está clara. En el estudio de las estrellas se espera encontrar un mecanismo energético mucho más potente que el nuclear. Energía El problema de la materia oscura es si existen formas desconocidas de materia. Las observaciones astronómicas muestran que 3/4 de la materia en el cúmulo de galaxias de la Vía Láctea es invisible y su energía no se puede medir por medios ópticos, infrarrojos ni. métodos de radiación.

El problema de la ruptura de la simetría en la física de partículas está relacionado con muchas teorías de la física de partículas, como la cromodinámica cuántica y la de Einstein. Sin embargo, nuestro mundo es asimétrico. .

Esto muestra que además de la fuerza fuerte, la fuerza electromagnética, la fuerza débil y la gravedad conocidas, puede haber fuerzas desconocidas. Ésta es la razón por la que se rompe la simetría. Si entendemos esta fuerza, será posible conocer el mecanismo de ruptura de la simetría. Podemos conocer el origen de la asimetría y luego es posible conocer la fuente de la masa (incluida la materia oscura). El problema de los quarks no es sólo un problema de estructura de la materia, sino también un problema de mecanismo de energía. Según las teorías existentes de la física de partículas, todos los hadrones y nucleones están compuestos de quarks, pero hasta ahora no se han observado quarks libres en los experimentos. Si existen quarks o no, y si el mecanismo energético de los quarks que se combinan para formar hadrones es especial, son cuestiones extremadamente fundamentales.

Para resolver la coordinación de la mecánica cuántica y la relatividad, la unificación de las interacciones y los cuatro problemas principales mencionados por Li Zhengdao, la comunidad física está atravesando difíciles exploraciones. Entre ellas, la conocida como "la física que inesperadamente pasó del siglo XXI al siglo XX", la teoría M se ha convertido en la más popular. La teoría m se desarrolla a partir de la teoría de supercuerdas de 10 dimensiones y aún no tiene un nombre definido. m toma la primera letra de la magia, el misterio, la maravilla, la membrana, la martica y la madre de todas las teorías. La teoría m cree que el componente básico de nuestro mundo es un superbloque supersimétrico (brana o

nuggets). Un superbloque contiene cadenas unidimensionales y bidimensionales. branas. También incluye entidades físicas 3D y superiores. En la teoría M, el espacio-tiempo tiene 11 dimensiones, incluida 1 dimensión de tiempo y 10 dimensiones de espacio. El espacio en la teoría M tiene 7 dimensiones más que el espacio tridimensional en el espacio real. La compacidad del espacio es la longitud de Planck, por lo que no podemos observar el espacio-tiempo de cuatro dimensiones, que es nuestro mundo real. La teoría M tiene una propiedad especial: la dualidad, lo que significa que varias teorías de supercuerdas pueden dar los mismos resultados en el marco de la teoría M.

En la actualidad, la teoría M ha dado una explicación razonable para la unificación de las cuatro interacciones y ha propuesto una nueva visión del origen del universo, formando la cosmología de la teoría M. En la cosmología de la teoría M, el universo espacial tridimensional en expansión en el que vivimos se considera como un trozo o pared regional de movimiento de aire en dimensiones superiores. El universo se originó a partir de un vacío cuántico.

En segundo lugar, la ciencia de la complejidad

De la autoorganización al hiperciclo

La teoría de la autoorganización de Prigogine se fundó en la década de 1960. Prigogine estudió sistemas abiertos que están lejos del equilibrio y señaló que tales sistemas pasarán del desorden al orden bajo la condición de interacciones no lineales (como fluctuaciones) sin violar la segunda ley de la termodinámica, un proceso llamado autoorganización. La autoorganización es una transición de fase que se manifiesta como un sistema con una estructura disipativa. En el proceso de desarrollo de la reducción de entropía, se entrará en un nuevo estado estacionario más ordenado. Este aumento de orden corresponde a un aumento relativo en la cantidad de información. La autoorganización tiene tipos de autocreación, autocrecimiento, autoevolución y autorreplicación. Un sistema abierto que está lejos del equilibrio (ya sea un sistema mecánico, físico, químico, biológico o incluso socioeconómico), cuando el cambio de un determinado parámetro en el sistema alcanza un cierto umbral, continuará intercambiando materiales y materiales con el mundo exterior. La energía experimentará fluctuaciones.

Según la teoría de la autoorganización, se puede explicar bien cómo se mantiene el orden en la vida y en los objetos naturales como la tierra. Un organismo vivo es un sistema abierto. Mantiene un orden autoorganizado y una vitalidad vigorosa mediante el intercambio constante de materia y energía con el mundo exterior, adquiriendo entropía negativa del mundo exterior.

La teoría de la estructura disipativa de Prigogine no sólo resuelve el misterio de la incompatibilidad entre la segunda ley de la termodinámica y la teoría de la evolución biológica, sino que también elimina el suspenso sobre el fenómeno de autoorganización en la naturaleza, y nos proporciona una mejor comprensión de toda la sociedad, incluida la sociedad. La complejidad del mundo abre un canal.

Stewart Kaufman, del Instituto Santa Fe, cree que sólo apoyándonos en la teoría de la autoorganización podemos comprender verdaderamente los fenómenos de la vida. Escribió en su libro "El universo es el hogar": "Me gustaría decir que la vida tiene otra fuente además de la autoorganización; esta es la raíz del estado ordenado. Finalmente creo que el orden del mundo biológico no es sólo Sólo se construye poco a poco porque los principios de la autoorganización son innatos y espontáneos.” (Stuart Kaufman, Hunan Science and Technology Press, The Universe Is. Home, Prefacio, 2003)

Científico alemán. Haken fundó Synergy en 1973, poco después de que Prigogine estableciera la teoría de las estructuras disipativas autoorganizadas.

Synergy cree que cuando los subsistemas en sistemas abiertos biológicos y no biológicos están lejos del equilibrio, producirán efectos sinérgicos a través de interacciones no lineales y alcanzarán un cierto punto crítico a través de fluctuaciones dentro de un cierto rango. Podemos hacer que el sistema pase del desorden al orden mediante la autoorganización, de modo que la antigua estructura se convierta en una nueva estructura que haya experimentado cambios fundamentales en el tiempo, el espacio, la naturaleza y la función. Por tanto, podemos pensar en la sinergia como una ciencia sobre el comportamiento colectivo autoorganizado. La sinergética considera un sistema autoorganizado complejo como un colectivo compuesto por muchos subsistemas, y la autoorganización es el resultado de la sinergia de estos subsistemas en condiciones estructurales disipativas.

La teoría del hiperciclo fue propuesta por el científico alemán Manfred Eigen en 1970. Eigen cree que el superciclo es un proceso de autoorganización molecular. Divide el fenómeno cíclico en bioquímica en diferentes niveles: el primer nivel es el ciclo de reacción de transformación, que es un proceso de autorregeneración en su conjunto, el segundo nivel se llama catalítico; ciclo de reacción., en su conjunto es un proceso autorreplicante; el tercer nivel es el llamado superciclo, que se refiere al ciclo en el que se acopla funcionalmente el ciclo catalítico, es decir, el superciclo catalítico. De hecho, en una organización de hiperciclo, no es necesario que todos los componentes desempeñen el papel de autocatalizadores. En términos generales, siempre que un eslabón del ciclo sea una unidad autorreplicante, el ciclo puede presentar las características de un hiperciclo. Las características del hiperciclo son: no sólo puede regenerarse y replicarse, sino también.

Los factores intrínsecos para la evolución de la estructura hyperloop provienen principalmente de dos aspectos: primero, los errores de las unidades autorreplicantes durante el proceso de replicación, similar a las mutaciones genéticas; segundo, la estructura hyperloop es un; Estructura de múltiples capas compuesta de múltiples componentes. Hay interacciones complejas no lineales dentro del sistema. En este caso, como afirma la teoría del caos, la aleatoriedad inherente entrará en juego en gran medida, imponiendo otra perturbación interna en la estructura del hiperbucle. Por lo tanto, la evolución de las estructuras de Hyperloop a menudo está relacionada con tres factores: errores de replicación, aleatoriedad inherente y perturbaciones ambientales.

Las estructuras hipercíclicas sólo pueden existir en la evolución. Para que exista una estructura hipercíclica, la evolución debe cumplir tres requisitos previos: (1) promover el metabolismo de la estructura con un flujo de entropía negativo suficientemente grande; (2) permitir la acumulación y herencia de información del sistema para tener capacidades de replicación lo suficientemente fuertes (3; ) Garantizar que los componentes La existencia y desarrollo de estructuras con acoplamiento funcional suficientemente fuerte. Sólo cuando estas tres condiciones se cumplen al mismo tiempo la estructura hipercíclica puede existir de manera estable y evolucionar.

La teoría de la complejidad anterior analiza principalmente el mecanismo de formación, la estructura y la evolución de sistemas complejos, y rara vez estudia la dinámica de sistemas complejos. La teoría del caos, que surgió en la década de 1960, trata sobre la dinámica de sistemas complejos no lineales. El caos en la teoría del caos se define como el comportamiento no periódico de un sistema no lineal determinista en condiciones iniciales sensibles acotadas.

La teoría del caos se originó a partir del estudio de los sistemas climáticos. La teoría del caos cree que los sistemas climáticos son muy sensibles a las condiciones iniciales y cualquier pequeño cambio provocará cambios inesperados en el desarrollo posterior del sistema. Lorenz, meteorólogo estadounidense y uno de los fundadores de la teoría del caos, comparó vívidamente la situación en la que un sistema es extremadamente sensible a las condiciones iniciales con el efecto mariposa. Dijo que el batir de las alas de una mariposa en Brasil podría ser la causa de un tornado en Texas. Lorenz también cree que el efecto mariposa no es accidental, sino inevitable.

La teoría del caos es otro desafío al determinismo. La mecánica cuántica abandona el determinismo de Laplace en el ámbito microscópico, mientras que la teoría del caos excluye el determinismo de Laplace en el ámbito macroscópico familiar. Ahora sabemos que el caos está en todas partes. La columna de humo ascendente estalló en deslumbrantes remolinos, la bandera ondeó de un lado a otro con el viento y el agua que goteaba del grifo se convirtió en un desastre. En el vuelo de un avión, existe confusión en el comportamiento de los automóviles detenidos en la carretera e incluso en los procesos financieros. El caos es una ciencia sobre la naturaleza de los sistemas. Rompe los límites de varias disciplinas y reúne a personas de diferentes disciplinas. El caos no es sólo una teoría sino también un método eficaz para abordar sistemas complejos, no lineales y no periódicos.

Como dijo Gleick en el libro "Caos: Creando una nueva ciencia": "El caos es una idea que hace que todos los científicos crean que todos somos miembros de la misma empresa conjunta. Los científicos de física o los biólogos o los matemáticos creen que los sistemas deterministas simples pueden generar complejidad; la gente cree que los sistemas que son demasiado complejos para las matemáticas tradicionales aún pueden obedecer a leyes simples y, independientemente de su campo de especialización, creo que la tarea de todos es comprender la complejidad misma;

"(James Gleick, "Caos: Creando una nueva ciencia", Shanghai Translation Publishing House, 1990, página 321).

Tercero, ciencias de la vida

Biología molecular Discusión sobre la naturaleza de ciencia y vida

¿Qué es la vida? ¿Dónde está el límite entre la vida y la muerte? Esta es una pregunta que ha preocupado a la humanidad desde el principio, aunque todavía hay cierta distancia hasta la respuesta definitiva. se puede decir que el surgimiento de la biología molecular en el siglo XX ha llevado completamente este tema a la órbita de la ciencia moderna. Ya en el siglo XIX, Engels dijo una vez que, según el entendimiento científico de esa época, “la vida es el. forma en que existe el proteoma La esencia de esta forma de existencia radica en la constante autorrenovación de la composición química de estos proteomas. "En cuanto a qué es el proteoma, no estaba claro en ese momento, y el propio Engels no se conformó con utilizar la palabra "proteoma" para representar a los seres vivos primitivos. Creía que el desarrollo de la ciencia daría un nombre más razonable. .

En la primera mitad del siglo XX, finalmente se descubrió la proteína, uno de los elementos básicos de la vida, y luego se descubrió el ácido nucleico. Tanto las proteínas como los ácidos nucleicos son moléculas de alto peso molecular, por lo que. A menudo se les llama macromoléculas biológicas. Gram descubrió que el ADN (ácido desoxirribonucleico) tiene una estructura de doble hélice. A partir de entonces nació una nueva disciplina: la biología molecular.

Con el desarrollo de la biología molecular, la gente puede hacerlo. no solo estudiar a nivel molecular dominar los mecanismos internos relacionados con la estructura y función de los organismos, como la herencia y la mutación, el metabolismo material y el metabolismo energético, la regulación biológica, etc. Además, algunas macromoléculas biológicas han sido sintetizadas artificialmente y otras. Los procesos de la vida se pueden reproducir en condiciones experimentales. Química La brecha entre la reacción y la actividad de la vida es cada vez más pequeña, por lo que algunas personas piensan que la vida es el movimiento de estas macromoléculas biológicas. El descubrimiento de los virus también ha desdibujado los límites entre la vida y las moléculas. hasta cierto punto, porque algunos virus, como el de la fiebre aftosa, son más complejos que las moléculas. Por ejemplo, la molécula de hemoglobina es pequeña, también hay un virus que solo tiene ácido nucleico y no tiene proteínas. Es decenas de veces más pequeño que los virus comunes y solo puede codificar docenas de aminoácidos, pero también puede reproducirse en el cuerpo huésped. ¿Son los virus vida? Estas nuevas situaciones en las ciencias de la vida han hecho que algunos biólogos sientan que los límites entre la vida y la muerte se han vuelto más pequeños. borroso, lo que hace más difícil responder a la pregunta de qué es la vida. Por ejemplo, el biólogo Sass dijo en su libro "Biología evolutiva". "En el libro "El origen de la vida", el biólogo Cushing dijo: "Es imposible. Defínalo estrictamente para incluir todos los materiales biológicos (pasados ​​y presentes) y excluir todos los materiales no biológicos. ”

Además de los biólogos, también los físicos y químicos han prestado gran atención a la cuestión de qué es la vida. Xue, uno de los fundadores de la mecánica cuántica, publicó un libro titulado "Qué es la vida". - Una visión física de las células vivas", que tiene menos de 100 páginas, presenta algunas ideas y conceptos esclarecedores: "Lo único que un organismo vivo necesita para sobrevivir". La forma es absorber continuamente entropía negativa del medio ambiente. "Los organismos "viven de la negentropía". O, más precisamente, la esencia del metabolismo es permitir que los organismos eliminen con éxito toda la entropía que tienen que producir mientras están vivos". Aquí, Xue introdujo por primera vez el concepto de negentropía. Según la segunda ley de la termodinámica, la entropía de un sistema aislado siempre aumentará y el sistema se volverá cada vez más desordenado, pero los organismos vivos se desarrollarán de manera organizada y ordenada. Xue captó esta importante característica de la vida y vinculó la negentropía con las actividades de la vida. Bertalanffy, el fundador de la teoría de sistemas, decía en su libro "El problema de la vida": "Un organismo vivo es un sistema abierto de orden que se mantiene en el intercambio de componentes en virtud de sus propias condiciones".

El uso de la física moderna y el pensamiento sistémico para estudiar los fenómenos de la vida tiene una importancia de gran alcance y es pionero en la exploración de la unificación de la física y la biología. De hecho, fue después de leer "Qué es la vida" cuando Orson y Crick decidieron dedicarse a la investigación de la biología molecular. El genetista japonés Hirao Kondo cree que la publicación de "Qué es la vida" es un símbolo de la revolución en biología.

Por supuesto, no es aconsejable atribuir completamente los fenómenos y movimientos de la vida a los fenómenos y movimientos físicos y químicos.

Al comprender la naturaleza de la vida, la ciencia de la complejidad analizada en la sección anterior proporcionará una nueva explicación. Stuart Kauffman, del Instituto Santa Fe, escribe en su libro The Universe Is Home: "En resumen, las hipótesis del ARN desnudo y del multímero de ribosomas desnudos no dan sentido a nuestras observaciones. Ofrece una descripción profunda de la complejidad mínima de todas las células libres.

Insisto en que el principio de origen ordenado descrito en el capítulo 3 todavía tiene sentido. Este principio establece por qué la materia debe alcanzar un cierto punto. Insisto en que es el significado adecuado en la cuestión de la naturaleza de la vida. (Página 55)

En resumen, cuando se utilizan métodos de reducción en las ciencias de la vida, se debe considerar la complejidad de los fenómenos de la vida, porque los fenómenos de la vida y los movimientos de la vida tienen sus propias características. se basa en ácidos nucleicos y macromoléculas proteicas. Los ácidos nucleicos (ADN y ARN) desempeñan el papel de portadores de información en la continuación de la vida en su conjunto y de los individuos, mientras que las proteínas desempeñan el papel de reconocimiento de información y expresión funcional. allí hay intercambio de materia y energía con el medio ambiente, y el mecanismo de este intercambio es el metabolismo. Además, si el valor de entropía de la vida disminuye durante el intercambio de materia y energía (es decir, la entropía negativa se absorbe del exterior), la vida. se desarrollará positivamente, y viceversa. En tercer lugar, la vida tiene las características de herencia y variación. En cuarto lugar, la vida es un sistema abierto altamente organizado que puede aceptar y procesar información externa y, finalmente, puede adaptarse al entorno. La vida es la unidad del acontecimiento y la muerte. Es precisamente por la existencia y la muerte de la vida individual que la vida entera es eterna.

De esta manera, la comprensión actual de la naturaleza de la vida. resumido como: la vida es esencialmente un ácido nucleico. Es un sistema multimolecular complejo compuesto de proteínas, capaz de autorrenovarse y capaz de procesar, procesar y almacenar materia, energía e información de una manera muy ordenada. tiene las características de autorregulación, autorreplicación y respuesta selectiva a entornos internos y externos /p>

La naturaleza de la conciencia

La naturaleza de la conciencia y el estudio del cerebro es otra. Tema importante en las ciencias de la vida. El cerebro es el órgano que produce la conciencia. La complejidad de la conciencia se debe en gran medida a esto. Es muy complejo. El cerebro humano sólo pesa entre 3 y 4 libras, pero contiene aproximadamente 654,38+00 mil millones de neuronas. Es un número astronómico, que es del mismo orden de magnitud que el número total de estrellas en la Vía Láctea. ¿Porque hay demasiadas neuronas? ¿Por supuesto que no? Hay casi 100 mil millones de células en el hígado, pero ninguna cantidad de hígados. combinadas pueden reemplazar las ricas y coloridas actividades vitales del cerebro. Parte de la alta complejidad del cerebro se debe a la diversidad de las células nerviosas que lo componen. Las células nerviosas se pueden dividir en neuronas y las neuronas se pueden dividir en muchas. Los tipos según sus diferencias morfológicas, como las células piramidales grandes, las células piramidales pequeñas, las células granulares y las neuronas salvajes de axones cortos, se pueden dividir en neuronas aferentes e interneuronas según sus funciones, y existen muchos tipos de células gliales, como. como astrocitos, astrocitos protoplásmicos y microglía, oligodendrocitos y células ependimarias, además de las diferencias morfológicas, también existen diferencias moleculares. Además, aunque todas las células tienen los mismos genes, las células de diferentes tejidos tienen diferentes opciones. Expresión génica. Las células apocrinas están presentes en la retina. Este gen expresado selectivamente está presente en las células de Purkinje del cerebelo y en las neuronas motoras de la columna. /p>

Al estudiar la complejidad de las neuronas, también se descubrió que las neuronas tienen identidad. Las neuronas con funciones similares se reúnen en columnas o placas y pasan a través de la corteza, y todas las neuronas conducen información. La información está presente a lo largo del axón en forma de pulsos eléctricos cortos llamados potenciales de acción.