Podcasts de historia

Aspectos especiales - Historia

Aspectos especiales - Historia

La guerra naval incluía más que los contactos entre flotas rivales y sus componentes aéreos. Implicaba la vigilancia constante de los movimientos y las bases enemigas, la destrucción del barco. El rescate de Airsea, que mantuvo las pérdidas de personal al mínimo, preservó ese elemento del poder militar más difícil de reemplazar y reforzó la moral de todos los combatientes. En todas estas actividades participó la aviación y para su realización desarrolló técnicas especiales, cuyo conocimiento es necesario para comprender la victoria en el Pacífico. La búsqueda y reconocimiento aéreo naval Pearl Harbor mostró la necesidad de patrullas aéreas. La Flota japonesa cuyos aviones causaron tales daños en la mañana del 7 de diciembre de 1941, estaban dentro del alcance la noche anterior. Si hubiera suficientes Catalinas fuera, la flota podría haber sido descubierta, pero la capacidad de las fuerzas estadounidenses para sorprender al enemigo en muchas ocasiones más tarde en el conflicto indicó que se necesitaban más que aviones en el aire para realizar una búsqueda adecuada. Sobre todo, requirió equipo de radar especial y un entrenamiento completo que las fuerzas estadounidenses no poseían en 1941. El almirante Hart en las Filipinas comentó sobre la gran cantidad de información errónea que recibió a través de la red de advertencia. Antes de que terminara esa desafortunada campaña en las Indias Orientales, los pilotos y las tripulaciones de los aviones patrulleros habían aprendido su oficio por las malas. Durante las últimas etapas del avance japonés, la única información disponible para los comandantes aliados provenía de las Catalinas del Ala de Patrulla 10 que operaban desde licitaciones cuyos movimientos casi diarios les permitían dar servicio a sus aviones después de que los campos de aterrizaje habían sido eliminados. Las lecciones aprendidas se aplicaron en otros lugares tan rápido como se pudieron obtener aviones, equipos y tripulaciones capacitadas. Aunque los aviones de búsqueda navales no estaban disponibles para la Batalla del Mar del Coral en mayo de 1942, el mes siguiente en Midway a Catalina fue la primera en informar sobre la flota japonesa. Cuando se utilizó el mismo tipo de hidroavión en las Islas Salomón, sus limitaciones se hicieron evidentes rápidamente. La sorpresa y el hundimiento de cuatro cruceros aliados en la isla de Savo en la noche posterior al desembarco en Guadalcanal podrían haberse evitado si el reconocimiento se hubiera completado. En las semanas siguientes, la concentración de combatientes enemigos hizo imposible el uso de Catalinas en la zona norte de Guadalcanal. Aunque las Fortalezas Voladoras del Ejército se emplearon para patrullas, la falta de equipo especial y entrenamiento restringió su utilidad. A fines de 1942, la Armada comenzó a recibir Libertadores, que después de una extensa modificación y tiempo para entrenar a las tripulaciones navales, aparecieron en las Islas Salomón a principios del año siguiente. Este avión tenía tanto el alcance para alcanzar los centros de actividad enemiga como la potencia de fuego necesaria para operar individualmente. La posesión de tal avión también hizo posible el desarrollo del reconocimiento fotográfico. Debido a que los japoneses habían excluido durante años a los extranjeros de las áreas militares y especialmente de las islas bajo mandato, la inteligencia aliada sabía muy poco sobre la naturaleza o el alcance de las instalaciones. En la primavera de 1943 llegó al Pacífico Sur el primer escuadrón fotográfico, acompañado de personal experto en procesamiento e interpretación. A partir de ese momento, se realizó un extenso reconocimiento fotográfico antes de cada operación importante. Además de las unidades especialmente equipadas, cada 9 aviones de búsqueda llevaban una cámara y podían complementar el avistamiento visual con evidencia fotográfica. La cámara y el radar aumentaron enormemente la efectividad de los aviones de patrulla naval. Aunque la primera función de la aviación de patrulla era avistar e informar, los aviones navales frecuentemente descubrían la navegación mercante enemiga sola o con escolta ligera. Dado que los aviones llevaban ametralladoras, bombas y, en la última parte de la guerra, cohetes y misiles guiados, realizaron exitosos ataques contra buques de carga y contribuyeron al esfuerzo que finalmente estranguló a la industria japonesa. Las operaciones antibuque también poseían una importancia militar directa. En las áreas del Pacífico Sur y Sudoeste, el enemigo con frecuencia intentaba mover tropas y suministros por la noche en pequeñas embarcaciones y barcazas, entrando y saliendo entre las numerosas islas y escondiéndose en ensenadas durante el día. Al detectar estos envíos clandestinos, la lentitud de las Catalinas se convirtió en un activo y la oscuridad brindó una protección adecuada para su vulnerabilidad. Con pintura especial y equipados con radar, se convirtieron en gatos negros que buscaban embarcaciones y barcazas enemigas dondequiera que pudieran encontrarlas. No solo atacaron ellos mismos, sino que también desarrollaron técnicas para guiar lanchas torpederas a motor, destructores y otras embarcaciones ligeras hacia los convoyes japoneses. Los Black Cats hicieron del reconocimiento un trabajo de 24 horas al día. En el Atlántico, los escuadrones de patrulla dedicaron su principal esfuerzo a la guerra antisubmarina. Debido a que los japoneses dirigieron muchas de sus naves submarinas para abastecer a guarniciones en islas pasadas por alto, las actividades antisubmarinas se vieron eclipsadas por otras fases de la aviación de patrulla en el Pacífico. Todos los escuadrones, sin embargo, recibieron instrucción en las técnicas especiales de este tipo de guerra, y aunque los aviones de patrulla fueron fundamentales para hundir solo cinco submarinos japoneses, la viligancia nunca se relajó y se mantuvo un alto grado de competencia a través del entrenamiento. A medida que la ofensiva de los Estados Unidos se movía a través del Pacífico, la aviación de patrulla la acompañó. Los aviones de búsqueda y fotográficos comprobaron y volvieron a comprobar las instalaciones y los movimientos del enemigo. Cuando las fuerzas del portaaviones se movían contra un objetivo, deseaban sorprender. Si los aviones de búsqueda japoneses encontraron aviones portaaviones, podrían haber inferido la presencia de portaaviones y transmitir el hecho antes de ser derribados. En la invasión de las Marianas y operaciones posteriores, los Navy Liberators volaron a lo largo de los flancos y por delante de la fuerza de portaaviones, derribando aviones de búsqueda enemigos. Antes de los desembarcos en Filipinas, derribaron los barcos de piquete japoneses al este de Formosa. Durante los períodos críticos cuando las fuerzas anfibias estaban estableciendo una cabeza de playa, los comandantes navales necesitaban un conocimiento preciso de las unidades enemigas que se acercaban. Con este fin, las licitaciones acompañaron a la flota de invasión y comenzaron a operar hidroaviones de inmediato. Aunque esto siguió siendo una actividad peligrosa mientras el enemigo tuviera aviones y campos en uso, era necesario y en 1943 la Armada tenía disponible el Mariner (PBM), un hidroavión más rápido, de mayor alcance y con más potencia de fuego que el Catalina. En Okinawa, los marineros realizaron sus primeras búsquedas en el objetivo principal incluso antes de que las tropas desembarcaran y el 7 de abril de 1945 tuvieran la oportunidad de demostrar su valor. Un submarino de los Estados Unidos avistó el día anterior una fuerza japonesa construida alrededor del Yamato, el acorazado más grande del mundo, que se dirigía hacia nuestra flota de invasión. Los aviones de búsqueda despegaron inmediatamente y algunas horas más tarde detectaron al enemigo y guiaron a los aviones de transporte hacia el ataque, lo que resultó en la destrucción del Yamato, un crucero ligero y cuatro destructores. Los Marineros no solo mantuvieron un contacto continuo sino que aterrizaron en mar abierto para recoger al personal de los aviones portaaviones derribados durante la acción. Los últimos 6 meses de la guerra vieron la culminación de la aviación de patrulla. Los nuevos tipos de aviones estuvieron disponibles en cantidades cada vez mayores. Evitar la duplicación de trabajo inherente a la construcción de un avión y luego modificarlo ampliamente. la Armada diseñó una versión del Liberator para cumplir con sus requisitos especiales y le dio el nombre náutico Privateer (PB4Y-2). Un avión terrestre de dos motores, el Ventura (PV-1) desarrollado originalmente para trabajos antisubmarinos en el Atlántico también se empleó en el Pacífico, y un nuevo modelo llamado Harpoon (PV-2) apareció en 1945. En preparación, pero no listo en tiempo para las operaciones de guerra, fue el Neptuno

P2V), uno de los cuales sorprendió al mundo en 1946 al volar desde Perth, Australia, a Columbus, Ohio, una distancia de más de 11,000 millas y el vuelo más largo registrado. Lo que hubiera significado un avión con ese alcance y facilidad de operación en 1941, se puede imaginar fácilmente. En la primavera de 1945, la Armada realizó búsquedas que literalmente cubrieron el Pacífico desde las Aleutianas hasta Australia, desde Seattle hasta Singapur. Especialmente importante fue el área entre Filipinas y el continente asiático a través de la cual los suministros vitales de las Indias Orientales pasaban a Japón. Para cortar estas líneas de comunicación, los aviones de patrulla resultaron particularmente útiles no solo hundiendo los barcos sino también guiando a los submarinos hacia objetivos probables e incluso llamando a los bombarderos del Ejército para deshacerse de un convoy demasiado grande para que lo maneje un solo avión de patrulla. Esta campaña coordinada redujo el transporte marítimo japonés a un goteo tan fino que en verano los grandes aviones cruzaban hacia la Indochina francesa, donde iban tras los ferrocarriles que eran el último eslabón de las comunicaciones enemigas con las regiones del sur. Más al norte, otros aviones navales, basados ​​en Okinawa e Iwo Jima, estaban realizando patrullas a lo largo de la costa de China hasta Corea y alrededor de las costas de las islas de origen japonesas. También atacaron la navegación con bombas, cohetes y misiles guiados y colocaron minas en las principales rutas de navegación. En la cima extrema del Imperio Japonés, aviones de búsqueda de las Aleutianas visitaban regularmente las Islas Kuriles. La efectividad de este reconocimiento en términos de área cubierta se puede ver en los gráficos de las páginas 12 y 13 que comparan las búsquedas efectivas al final de la guerra con las del momento del desembarco de Guadalcanal. La eficacia en términos de resultados obtenidos se indica más arriba. Todo esto se logró con la mayor economía. En ningún momento la Armada tuvo en operación en la zona del Pacífico más de 500 aviones de búsqueda de todo tipo. Al comienzo de la guerra, el procedimiento operativo para el rescate de pilotos y tripulaciones aéreas no estaba desarrollado. Por otro lado, se habían proporcionado varios dispositivos de seguridad básicos que permitían al piloto sobrevivir a la falla inesperada de su avión. El paracaídas, el chaleco salvavidas inflable conocido popularmente como "Mae West" y la balsa salvavidas de goma con su equipo de emergencia y señalización eran equipo estándar. Durante la guerra, el equipo de seguridad se mejoró constantemente y las probabilidades de supervivencia estaban a favor del volador, ya sea que el problema fuera una simple falla del motor o un disparo en llamas. En la primera mitad de 1942, muchos pilotos sobrevivieron a accidentes en áreas de combate, pero con frecuencia poco o nada se pudo hacer para lograr su recuperación. Sin embargo, una serie de rescates se realizaron generalmente como resultado de la iniciativa individual, y después de la batalla de Midway, Catalinas recogió a muchos pilotos. Operaciones de rescate organizadas desarrolladas en la campaña de Solomons. Catalinas, conocidas popularmente como "Dumbos", fueron enviadas a recoger al personal que había sido abatido. Al principio, esta fue una tarea incidental asignada cuando surgió la ocasión, pero luego se desarrolló hasta un punto en el que Dumbo dio vueltas cerca de la escena de una incursión. Se informaron posiciones cuando los aviones cayeron, y el Dumbo, a menudo protegido por aviones del ataque, recuperó al personal. La valentía de los equipos de rescate al aterrizar en posiciones expuestas al fuego de la costa enemiga se volvió legendaria. Fue una suerte que no se perdiera personal de rescate en tales operaciones. En 1944, en el Pacífico central, el problema de realizar rescates en áreas de mar abierto se volvió agudo por primera vez el 7 de agosto de 1942. Dado que solo los pilotos de hidroaviones más hábiles y experimentados podían aterrizar y despegar de nuevo en las enormes olas, el trabajo requería tanto marinero como aviador, y se convirtió en una práctica estándar evitar los aterrizajes en mar abierto a menos que las condiciones fueran favorables y no hubiera otro rescate. agente disponible. Los barcos, generalmente destructores, se recuperaron siempre que fue posible. Catalinas continuó usándose no solo ampliamente para buscar sobrevivientes, dejar caer el equipo de emergencia y dar vueltas por encima hasta que un A T T U -

.-.
Minería aérea La campaña ofensiva de colocación de minas emprendida contra Japón fue poco publicitada, pero los resultados fueron muy exitosos. Se hundieron al menos 649,736 toneladas de embarque y otras 1,377, - 780 toneladas se dañaron, de las cuales 378,827 aún estaban fuera de uso al final de la guerra. El total hundido y dañado representó una cuarta parte de la fuerza de la marina mercante japonesa antes de la guerra. Además, 9 destructores, 4 submarinos y 36 naves auxiliares se hundieron como resultado de las explosiones de las minas; y 2 acorazados, 2 portaaviones de escolta. Ocho cruceros, 29 destructores o escoltas de destructores, un submarino y otros 18 buques combatientes resultaron dañados. En el curso de la guerra se colocaron 25.000 minas, 21.389 o el 85 por ciento por avión. De un total de 4.760 salidas, solo 55 aviones de colocación de minas no regresaron. Aunque también se emplearon buques de superficie y submarinos, los aviones demostraron estar particularmente adaptados a la colocación de minas. Podrían penetrar en los puertos enemigos y repetir la operación sin estar en peligro por las minas sembradas previamente. Gran parte del trabajo podría realizarse de noche con una pérdida relativamente pequeña de precisión y con un mayor secreto en cuanto a la ubicación exacta de las 14 minas, lo que se sumó a la dificultad japonesa para barrer. Participaron todos los servicios aéreos de los Estados Unidos y los aliados, utilizando prácticamente todos los tipos de aviones bombarderos desde el Avenger (TBF) hasta el Superfortress (B-29) y, por supuesto, la omnipresente Catalina. Las minas en sí fueron desarrolladas, producidas, suministradas y mantenidas en gran parte por la Armada de los Estados Unidos con algunos tipos británicos que se emplean en Birmania y el Pacífico suroeste. Los oficiales de guerra contra las minas navales colaboraron en la planificación y ejecución de todas las operaciones. Si bien la minería resultó en la destrucción de un gran número de embarcaciones, tuvo otros efectos importantes que no se pueden determinar tan fácilmente. Obligó a los japoneses a cerrar los puertos hasta que pudieran ser barridos, lo que provocó la pérdida de un valioso tiempo de navegación. Incluso con relativamente pocas minas a la vez, los ataques repetidos a menudo dieron como resultado el abandono de muchos puertos. Para evitar que el enemigo llevara su flota a través de ciertos fondeaderos, se extrajeron cuando se estaban realizando operaciones importantes en áreas adyacentes. Se extrajeron aguas poco profundas para forzar el transporte marítimo a mar abierto, donde los submarinos estadounidenses podrían atacar. En el último mes de la guerra la campaña minera se extendió a las aguas de origen para cortar la última conexión japonesa con el continente. En la zona exterior, particularmente aunque con números comparativamente pequeños que se utilizan contra objetivos estratégicos. La campaña fue llevada a cabo por aviones de la Royal Air Force, Australia y el Ejército de los Estados Unidos que operaban desde bases en el suroeste del Pacífico, China e India. Impidió que los japoneses utilizaran puertos tan importantes como Rangún para reforzar sus tropas en Birmania y restringió en gran medida la obtención de suministros de petróleo de lugares sulch como Sura - baya y Balikpapan. En el Pacífico Sur y Central, los aviones de la Armada utilizaron minas con fines tácticos para evitar que la Flota japonesa usara ciertos puertos mientras se llevaban a cabo operaciones anfibias en áreas cercanas. Más de la mitad de las minas navales gastadas durante la guerra fueron colocadas por las Superfortalezas de la Vigésima Fuerza Aérea en y alrededor de las islas de origen, particularmente en el estrecho de Shimonseki y alrededor del Mar Interior. Esto obligó a los japoneses a transportar mercancías desde el continente asiático a los puertos del norte de Honshu, desde los cuales era imposible una distribución adecuada por ferrocarril. Para complicar el problema del enemigo, los corsarios navales de Okinawa explotaron las costas del Mar Amarillo hasta la costa sur de Corea. Se detuvo por completo el movimiento de barcos de más de 1.000 toneladas. La colocación cuidadosa de minas impidió el uso de todos los astilleros de la marina mercante de Japón, excepto tres, lo que impidió la reparación de buques ya dañados. Separado de las Indias Orientales por acción aérea y submarina, el enemigo vio su último vínculo con el continente asiático cortado por minas aéreas. Los servicios estadounidenses y aliados, que trabajaban en estrecha colaboración, completaron el dominio sobre la industria japonesa. Apoyo aéreo de operaciones anfibias Las principales misiones de apoyo aéreo fueron la defensa local y el apoyo directo de las tropas en tierra. La defensa incluyó patrullas aéreas de combate para protegerse de los ataques aéreos enemigos, patrullas antisubmarinas que volaban constantemente alrededor de los accesos al área objetivo y misiones especiales como el silenciamiento de baterías costeras pesadas. El apoyo directo de tropas consistió principalmente en ataques con bombas, cohetes, ametralladoras e incendiarios a las tropas y defensas enemigas. Para ser efectivas, las operaciones aéreas tanto defensivas como ofensivas requerían un alto grado de coordinación y control. Esto era prácticamente imposible de asegurar a través de los canales de comunicación normales de los grupos de tareas porque en una operación anfibia importante hasta treinta grupos diferentes de transportistas aéreos y unidades aéreas de la Marina con base en tierra podrían participar conjuntamente en las operaciones. El grupo de trabajo y la organización del grupo de trabajo involucraron demasiados escalones de mando para permitir una acción rápida en las solicitudes de apoyo aéreo. La necesidad del desarrollo de la doctrina de apoyo aéreo fue evidente en los aterrizajes en Guadalcanal y Tulagi en agosto de 1942. Tres portaaviones apoyaron esta operación, y sus grupos aéreos informaron a un director aéreo de apoyo en el buque insignia del comandante anfibio y antes de la operación. Desembarcos cumplieron misiones asignadas por él. Aunque la Armada había previsto la necesidad de equipos de enlace en tierra con las tropas y ocasionalmente los había empleado en maniobras en tiempo de paz, en Guadalcanal las comunicaciones inadecuadas y la falta de experiencia obstaculizaron la dirección de las misiones de apoyo después del desembarco de los marines. La defensa aérea para esta operación también dejó mucho que desear. El plan requería una patrulla aérea de combate de cazas dirigidos por un barco. Su función era recibir información de los radares de los barcos sobre los ataques aéreos enemigos y la posición de los cazas amigos, para transmitir esta información a los cazas que patrullaban y dirigirlos a un punto donde pudieran hacer contacto visual con aviones enemigos. Como el radar del crucero en el que estaba embarcado no detectó las incursiones, el director del caza no pudo llevar a cabo su misión. Después de los dos primeros días, los portaaviones se vieron obligados a retirarse, dejando a la fuerza anfibia y las tropas en tierra sin apoyo aéreo local hasta que un aeródromo capturado en Guadalcanal pudiera completarse y abastecerse con aviones terrestres. La trágica historia de las semanas siguientes, durante las cuales los aviones disponibles para la defensa y para el apoyo de las tropas fueron lamentablemente pocos, demostró claramente la importancia de mantener un suministro continuo de poder aéreo basado en portaaviones durante el período crítico entre el 16 asalto inicial y el eventual aeronaves terrestres en tierra. Fue a finales de agosto de 1942 antes de que se pusieran en marcha las operaciones de apoyo en tierra. Se utilizó la radio para comunicar las solicitudes de las tropas a los aviones de apoyo, y de esta experiencia se dio cuenta de la eficacia tremendamente aumentada obtenida al tener oficiales de enlace que trabajaban constantemente con las tropas y conocían los problemas especiales que se planteaban. Como resultado, la Armada organizó una serie de grupos de enlace aéreo que, a diferencia de los oficiales que desembarcaron el 7 de agosto, estaban especialmente entrenados para acompañar a las tropas de primera línea y transmitir sus solicitudes al mando de control. Tales partidos se utilizaron con éxito en Kiska, los Gilbert y en operaciones posteriores. Finalmente, sus funciones fueron asumidas por unidades dentro de la organización terrestre de la Marina y el Ejército. En el asalto a Tarawa el 20 de noviembre de 1943, apareció por primera vez la abrumadora concentración de poder aéreo que caracterizó todas las operaciones de desembarco en el Pacífico Central. Participaron un total de 17 portaaviones con un complemento de 900 aviones. Ocho eran los nuevos portaaviones de escolta comparativamente lentos asignados exclusivamente al apoyo aéreo táctico, una misión para la que estaban bien equipados y que permitía la liberación de los portaaviones rápidos para su uso contra bases aéreas enemigas y otros objetivos distantes. A medida que los transportistas de escolta están disponibles en cantidades cada vez mayores, fue posible expandir enormemente el volumen de apoyo aéreo. Durante la campaña de Gilberts también se hizo uso de una unidad de control de apoyo de tropas especializada a flote equipada para recibir y filtrar las solicitudes de ayuda y para asignar misiones de apoyo ofensivo a la aeronave en vuelo.En cada operación subsiguiente, las unidades de control de apoyo aéreo crecieron en tamaño, número y complejidad, asumiendo eventualmente el control completo de cada avión aerotransportado en el área objetivo. Estas unidades funcionaron primero en acorazados y luego en barcos de mando. Estos últimos fueron transportes reconvertidos con la concentración necesaria de equipos de radar y radiocomunicaciones. Estos barcos fueron utilizados como cuartel general conjunto por los comandantes anfibios, terrestres y aéreos. La dirección de los cazas, el control del apoyo aéreo defensivo, se llevó a cabo en los Gilbert desde los barcos designados en la flota de desembarco, pero había poca coordinación entre dichos barcos. Después de la experiencia de esta operación, el control de todos los equipos directores de combate anfibio se centralizó en la organización de control de apoyo aéreo existente, de modo que todas las aeronaves de apoyo, tanto ofensivas como defensivas, recibieron dirección y coordinación de un solo comando. A partir de entonces, las dos actividades se ubicaron físicamente en salas de control adyacentes en un barco de mando, que estaba en constante comunicación con las unidades o equipos de control subordinados, ya sea en otros barcos de mando, destructores de piquetes o en tierra. En enero de 1944, las fuerzas anfibias del Pacífico central invadieron Kwajalein. El patrón de apoyo aéreo táctico en las operaciones anfibias del Pacífico emergió claramente. Aunque las operaciones posteriores trajeron consigo una complejidad y un refinamiento cada vez mayores en la técnica, no se realizaron desviaciones importantes de este patrón. En el asalto a las Marianas de junio de 1944, el control de apoyo aéreo empleó tres naves de mando con reservas adicionales disponibles. El desarrollo de técnicas estandarizadas hizo posible pasar el control de las operaciones de apoyo aéreo sin interrupción de un barco a otro. De manera similar, como una aeronave con base en tierra se estableció en tierra, se consideró factible transferir elementos más estrechamente integrados con los movimientos de tropas a un centro de control en la cabeza de playa mientras se conservaba la dirección del caza a flote, la patrulla antisubmarina y el rescate aire-mar. Otra nueva técnica desarrollada en las Marianas fue la coordinación de la artillería en tierra, los disparos navales y el apoyo aéreo. Al colocar los controladores separados en el mismo barco, fue posible seleccionar el tipo de arma más eficaz (aérea, naval o artillería) para cada solicitud de las tropas terrestres. En septiembre de 1944 se produjeron desembarcos simultáneos en Morotai y Palaus. Los transportistas de Esort proporcionaron el apoyo directo para ambos. Si bien el desembarco de Morotai prácticamente no tuvo oposición, se encontró una resistencia fanática de posiciones subterráneas y cuevas en Bloody Nose Ridge en Peleliu. En la lucha cuerpo a cuerpo, los aviones de apoyo proporcionaron ataques de precisión a tan solo 100 yardas de las posiciones de primera línea, una hazaña que hubiera sido imposible sin la rígida disciplina aérea y el sistema de control concentrado desarrollado en operaciones anteriores. En la campaña para la reconquista de Filipinas, aviones del Ejército, la Armada y la Marina participaron juntos en el apoyo aéreo táctico. Los desembarcos en la zona de Leyte-Samar se realizaron el 20 de octubre de 1944 por fuerzas bajo el mando del General del Ejército MacArthur. Aunque después de ablandarse por el bombardeo aéreo y marítimo, los aterrizajes se realizaron con éxito sin demasiada oposición terrestre, la resistencia japonesa por mar y aire se desarrolló en una escala total. En la subsiguiente Batalla por el Golfo de Leyte, el Comandante de Apoyo Aéreo llevó su control hasta el punto de desviar los aviones de las misiones de apoyo de tropas a los ataques contra las fuerzas de superficie enemigas. Este fue un ejemplo sobresaliente no solo de la versatilidad de los aviones de transporte, sino también de la flexibilidad del poder aéreo que fue posible gracias al tipo de organización de apoyo aéreo desarrollada y perfeccionada en la guerra del Pacífico. En el desembarco del golfo de Lingayen en enero y el asalto a Iwo Jima en febrero, el apoyo aéreo siguió el patrón establecido. Sin embargo, el creciente uso de ataques kamikaze por parte de los japoneses enfatizó la función de defensa de las unidades de control de apoyo aéreo. La operación anfibia más grande de la guerra del Pacífico, el asalto y ocupación de Okinawa, 17 vio el apoyo aéreo en su nivel más alto. De 20 a 31 portaaviones proporcionaron apoyo aéreo táctico para 1.213 barcos y 451.866 tropas de combate y de servicio. A medida que se capturaron y activaron los campos de aterrizaje en Okinawa, se agregaron progresivamente un total de más de 400 aviones de la Marina y el Ejército con base en tierra a los aviones basados ​​en portaaviones. Las estadísticas son impresionantes e indicativas del alcance de la función de apoyo de las aeronaves. Durante 88 días, se realizaron 1.904 misiones de apoyo directo que involucraron un total de 17.361 salidas ofensivas individuales. Un promedio de 560 aviones estaban en el aire cada día en todo tipo de misiones, incluidas las patrullas defensivas. Estos aviones gastaron 7.141 toneladas de bombas, 49.641 cohetes de 5 pulgadas, 1.573 tanques de ala que contenían 260.000 galones de napalina, la gelatina de gasolina ardiente y 9.300.000 cartuchos de munición calibre 50. Okinawa proporcionó una prueba crucial para la dirección de los cazas anfibios. Como en Filipinas, la intensidad de la oposición japonesa aumentó la importancia de la defensa aérea. Con un área de aproximadamente 7,850 millas cuadradas para cubrir y con la mayoría de la fuerza aérea enemiga basada a solo 350 millas de distancia en Kyushu al norte y en Formosa al suroeste, la magnitud de la responsabilidad de la defensa aérea centralizada es evidente. Durante los primeros 54 días, se realizaron 18.675 salidas de aviones de combate solo para la protección de la fuerza anfibia, mientras que además los portaaviones rápidos y de apoyo proporcionaron su propia patrulla aérea de combate. En los 82 días durante los cuales la unidad de control de apoyo aéreo de las fuerzas anfibias estuvo a cargo de la defensa del área objetivo. los japoneses enviaron 896 ataques aéreos en los que participaron más de 3.089 aviones. De estos, la patrulla aérea de combate controlada centralmente sobre el área del objetivo derribó 1.067 aviones, incluidos 50 derribados por cazas nocturnos. El fuego antiaéreo y las inmersiones suicidas destruyeron al menos 948 más, lo que hace un total de 2.015 aviones japoneses. Estas cifras no incluyen los aviones japoneses derribados por las patrullas aéreas de combate sobre los 18 portaaviones y por los cañones antiaéreos de las fuerzas de portaaviones que no estaban bajo el control del apoyo aéreo. Se habían previsto tácticas aéreas enemigas y se habían establecido 15 estaciones de piquete de radar, ubicadas entre 20 y 95 millas del centro de la zona, para cubrir las rutas de aproximación. Cada estación estaba tripulada por un destructor equipado con radar o una embarcación más pequeña con un equipo de cazas y directores a bordo. Estos equipos estaban vinculados con la organización central de control de defensa aérea. Dirigieron patrullas de combate asignadas a sus sectores y pasaron el control y la información a otras unidades cuando los asaltantes abandonaron su área. La línea de piquete fue tan eficaz para interceptar las incursiones enemigas que los japoneses cambiaron de táctica y comenzaron a concentrarse en las naves de piquete que hasta ahora habían sido descuidadas por objetivos más grandes y rentables. A pesar de los golpes que recibieron estas estaciones de piquete, que resultaron en 7 destructores hundidos, 18 seriamente dañados y 6 levemente dañados, los barcos de combate-director todavía estaban en la estación cuando la responsabilidad de la defensa aérea fue transferida a tierra al Comandante de la Defensa Aérea 82 días después del original. aterrizajes. El control de apoyo aéreo, tal como funcionaba en la campaña de Okinawa, había crecido para incluir más que aviones. Previó la integración de todas las armas disponibles: tierra, mar y aire. Para las fuerzas limitadas que operan lejos de las bases, la economía en el uso de armas se volvió obligatoria. El sistema de control proporcionó defensa con un mínimo de aviones de combate, liberando otros para misiones de apoyo. Hizo posible el uso de aviones solo contra objetivos susceptibles de ataque aéreo y vio que los disparos navales o artillería de campo se usaban donde más eficientemente. Este uso económico del poder surgió del concepto de organización de la Armada, que trataba a todos los elementos de las fuerzas navales como partes integrantes de todo el complejo necesario para el control del mar. Cada uno debe usarse de la manera que mejor se adapte a sus características inherentes y todos deben formarse a través de un sistema operativo unificado de fuerza de tarea. Las unidades de control de apoyo aéreo eran en sí mismas una adaptación especializada del patrón del grupo de trabajo para el cumplimiento de una misión bien definida. Aunque la rendición de Japón hizo innecesario el asalto anfibio final a la patria enemiga, la operación de Okinawa demostró la capacidad de los Estados Unidos para transportar sus fuerzas a grandes distancias marítimas y aterrizarlas en una costa hostil. La posesión de esta técnica alteró la imagen estratégica del mundo.


Los orígenes de la fe judía se explican a lo largo de la Torá. Según el texto, Dios se reveló primero a un hombre hebreo llamado Abraham, quien llegó a ser conocido como el fundador del judaísmo.

Los judíos creen que Dios hizo un pacto especial con Abraham y que él y sus descendientes fueron personas elegidas que crearían una gran nación.

El hijo de Abraham & # x2019, Isaac, y su nieto Jacob, también se convirtieron en figuras centrales de la historia judía antigua. Jacob tomó el nombre de Israel, y sus hijos y las generaciones futuras se conocieron como israelitas.

Más de 1.000 años después de Abraham, el profeta Moisés sacó a los israelitas de Egipto después de haber sido esclavizados durante cientos de años.

Según las escrituras, Dios reveló sus leyes, conocidas como los Diez Mandamientos, a Moisés en el monte Sinaí.


Aspectos especiales - Historia

Para iniciar el video manualmente, haga clic en:

Luego use el botón de retroceso de su navegador para regresar

Fue realmente impactante. Vine aquí, en cierto sentido ahora reconozco que era muy ... venía de un entorno de clase media. Mi doctorado supervisor, más o menos, ¿su padre era el Señor? (Dr. Lane, por favor confirme o aclare), así que ese era el ambiente, muy británico, muy de clase media, muy común, mi familia no era científica en absoluto. Fui la primera persona de mi familia en ir a la universidad y estudiar ciencias, así que eso es lo que sabía. Vine aquí y estaba asombrado, había gente de todo el mundo. Había una atmósfera increíblemente intensa. Vivías en el campus. Caminaste por la hierba [y] estabas en el laboratorio. ¡Fue simplemente salvaje! James Lab, donde yo estaba, era el más salvaje de lo salvaje. Esa era la atmósfera, era completamente, éramos los mejores, éramos los más duros, éramos los más duros aquí, el resto simplemente no estaba allí. Esa era la atmósfera que adoraban Joe y Mike, [Bob] Tjian y toda esa gente. Estaba sucediendo una gran cantidad de cosas, era un momento muy emocionante. Fue loco.

Recuerdo el primer día que vine, llegamos por la noche, tomamos un taxi, éramos típicamente ingenuos y nos subimos a un taxi en el JFK [Aeropuerto Internacional John F. Kennedy], y el tipo se perdió y finalmente llegamos. aquí, y con dos maletas grandes. De hecho, nos quedamos en la granja porque Rich Roberts estaba de licencia sabática, así que conseguimos su apartamento. Luego nos despertamos a la mañana siguiente, miramos el Sound [Long Island Sound], viví en Londres toda mi vida, ¡no podía creerlo! Entré al laboratorio y en el [área] principal de posdoctorado solía haber una oficina compartida para todos los posdoctorados en James. Había un balde de agua y los postdoctores hacían cola para meter la cabeza en el balde de agua y calcular cuánto tiempo podían mantener la cabeza bajo el agua, ¿verdad? Fue solo una competencia para ver cuán duros eran. Simplemente no pude, nunca había visto nada como esto en mi vida, ¡estaba en estado de shock!

Así que hubo una tremenda atmósfera de diversión y gente. Fue emocionante, simplemente emocionante. Siguió así todo el tiempo, veías a la gente realmente discutiendo mucho en el pasillo y [en] un debate intelectual muy intenso. Y luego la ciencia: estabas haciendo cosas muy interesantes y muy prácticas. Entonces entrarías allí, había un gran tanque de desarrollo al lado de la cafetera. Caminaste por la biblioteca hasta este tanque de desarrollo. ¿Estarías caminando hacia allí y alguien estaría leyendo un diario y estarías con esta autorrad que gotea? [autorradiografía] con su último resultado, pasaba junto a ellos y la gente hablaba. Fue un gran ambiente. Gente maravillosa y muy divertida. Recuerdo haber ido a una fiesta con Walter Schaffner, que acababa de encontrar potenciadores, nadie creía esto, este fue un resultado loco. Puso este fragmento de ADN en cualquier lugar y pareció fortalecer la transcripción y no importaba si era de una forma u otra. Nadie había visto nada como esto antes. Fue loco. El estaba loco. Llegó a esta fiesta vestido de Drácula. Bebió un plato de células HeLa como sangre, sacrificio humano. Fue muy divertido. Extrañas horas de trabajo, solíamos ir al trabajo alrededor de las diez de la mañana, tomar café y donas y luego hablar, y luego almorzar y luego empezar a trabajar. Pero trabajábamos hasta quizás las dos o las tres de la noche, y luego íbamos a Huntington al bar, y luego volvíamos, nos íbamos a la cama [y] empezábamos de nuevo. Los técnicos solían venir. En realidad funcionaba, era ciencia casi continua porque los técnicos llegaban más temprano en el día y establecían algunos cultivos celulares o algo así, la ciencia funcionaba las veinticuatro horas. Quiero decir que había gente en el laboratorio, podías ir al laboratorio en cualquier momento y había alguien trabajando. Si ibas a cenar con alguien más en el campus, la gente se levantaba entre el plato principal y el postre para encender o apagar su gel o hacer algo, volverían otra vez. Así que fue muy divertido.


Contenido

El estudio metafísico se realiza mediante la deducción de lo que se conoce. a priori. Como la matemática fundamental (que a veces se considera un caso especial de metafísica aplicada a la existencia del número), intenta dar una explicación coherente de la estructura del mundo, capaz de explicar nuestra percepción cotidiana y científica del mundo, y ser libre. de las contradicciones. En matemáticas, hay muchas formas diferentes de definir números de manera similar, en metafísica, hay muchas formas diferentes de definir objetos, propiedades, conceptos y otras entidades que se dice que componen el mundo. Si bien la metafísica puede, como caso especial, estudiar las entidades postuladas por la ciencia fundamental como los átomos y las supercuerdas, su tema central es el conjunto de categorías como objeto, propiedad y causalidad que asumen esas teorías científicas. Por ejemplo: afirmar que "los electrones tienen carga" es una teoría científica mientras se explora lo que significa que los electrones sean (o al menos, que se perciban como) "objetos", que la carga sea una "propiedad" y que existan ambos. en una entidad topológica llamada "espacio" es tarea de la metafísica. [5]

Hay dos posturas generales sobre lo que es "el mundo" estudiado por la metafísica. Según el realismo metafísico, los objetos estudiados por la metafísica existen independientemente de cualquier observador por lo que el sujeto es la más fundamental de todas las ciencias. [6] El antirrealismo metafísico, por otro lado, asume que los objetos estudiados por la metafísica existen dentro de la mente de un observador, por lo que el sujeto se convierte en una forma de introspección y análisis conceptual. [6] Esta posición es de origen más reciente. Algunos filósofos, en particular Kant, discuten estos dos "mundos" y lo que se puede inferir de cada uno. Algunos, como los positivistas lógicos y muchos científicos, rechazan el realismo metafísico por carecer de sentido y no verificarlo. Otros responden que esta crítica también se aplica a cualquier tipo de conocimiento, incluida la ciencia dura, que pretende describir cualquier cosa que no sea el contenido de la percepción humana y, por lo tanto, que el mundo de la percepción es el mundo objetivo en cierto sentido. La metafísica misma generalmente asume que se ha adoptado alguna postura sobre estas cuestiones y que puede proceder independientemente de la elección; la cuestión de qué postura tomar pertenece en cambio a otra rama de la filosofía, la epistemología.

Ontología (ser) Editar

Ontología es la rama de la filosofía que estudia conceptos como existencia, ser, devenir y realidad. Incluye las preguntas de cómo las entidades se agrupan en categorías básicas y cuáles de estas entidades existen en el nivel más fundamental. La ontología a veces se denomina ciencia del ser. Se ha caracterizado como metafísica general en contraste con metafísica especial, que se ocupa de aspectos más particulares del ser. [7] Los ontólogos a menudo intentan determinar cuál es el categorias o tipos más altos son y como forman un sistema de categorías que proporciona una clasificación abarcadora de todas las entidades. Las categorías comúnmente propuestas incluyen sustancias, propiedades, relaciones, situaciones y eventos. Estas categorías se caracterizan por conceptos ontológicos fundamentales, como particularidad y universalidad, carácter abstracto y concreción o posibilidad y necesidad. De especial interés es el concepto de dependencia ontológica, que determina si las entidades de una categoría existen en el nivel más fundamental. Los desacuerdos dentro de la ontología a menudo se refieren a si existen entidades que pertenecen a una determinada categoría y, de ser así, cómo se relacionan con otras entidades. [8] [9] [10] [11]

Identidad y cambio Editar

La identidad es una preocupación metafísica fundamental. Los metafísicos que investigan la identidad tienen la tarea de preguntarse qué significa exactamente que algo sea idéntico a sí mismo o, lo que es más controvertido, a otra cosa. Los problemas de identidad surgen en el contexto del tiempo: ¿qué significa que algo sea él mismo en dos momentos en el tiempo? ¿Cómo explicamos esto? Otra cuestión de identidad surge cuando nos preguntamos cuáles deberían ser nuestros criterios para determinar la identidad y cómo la realidad de la identidad interactúa con las expresiones lingüísticas.

Las posiciones metafísicas que uno asume sobre la identidad tienen implicaciones de gran alcance en cuestiones como el problema de la mente y el cuerpo, la identidad personal, la ética y la ley.

Algunos antiguos griegos adoptaron posiciones extremas sobre la naturaleza del cambio. Parménides negó el cambio por completo, mientras que Heráclito argumentó que el cambio era omnipresente: "Ningún hombre pisa el mismo río dos veces".

La identidad, a veces llamada identidad numérica, es la relación que una cosa tiene consigo misma, y ​​que ninguna cosa tiene con otra cosa que no sea ella misma (cf. igualdad).

Un filósofo moderno que tuvo un impacto duradero en la filosofía de la identidad fue Leibniz, cuyo Ley de la indiscernibilidad de los idénticos todavía es ampliamente aceptado hoy. Dice que si algún objeto X es idéntico a algún objeto y, entonces cualquier propiedad que X tiene, y tendrá también.

∀ x ∀ y (x = y → ∀ P (P (x) ↔ P (y)))

Sin embargo, parece que los objetos pueden cambiar con el tiempo. Si uno mirara un árbol un día, y luego el árbol perdiera una hoja, parecería que todavía podría estar mirando ese mismo árbol. Dos teorías rivales para explicar la relación entre cambio e identidad son el perdurantismo, que trata al árbol como una serie de etapas del árbol, y el endurantismo, que sostiene que el organismo —el mismo árbol— está presente en todas las etapas de su historia.

Apelando a las propiedades intrínsecas y extrínsecas, el endurantismo encuentra una manera de armonizar la identidad con el cambio. Los endurantistas creen que los objetos persisten siendo estrictamente numéricamente idénticos a lo largo del tiempo. [12] Sin embargo, si la Ley de la Indiscernibilidad de los Idénticos de Leibniz se utiliza para definir la identidad numérica aquí, parece que los objetos deben permanecer completamente sin cambios para persistir. Al discriminar entre propiedades intrínsecas y propiedades extrínsecas, los endurantistas afirman que la identidad numérica significa que, si algún objeto X es idéntico a algún objeto y, entonces cualquiera intrínseco propiedad que X tiene, y tendrá también. Por tanto, si un objeto persiste, intrínseco sus propiedades no cambian, pero extrínseco las propiedades pueden cambiar con el tiempo. Además del objeto en sí, los entornos y otros objetos pueden cambiar con el tiempo, las propiedades que se relacionan con otros objetos cambiarían incluso si este objeto no cambia.

El perdurantismo puede armonizar la identidad con el cambio de otra manera. En el cuatridimensionalismo, una versión del perdurantismo, lo que persiste es un objeto cuatridimensional que no cambia aunque los cortes tridimensionales del objeto pueden diferir.

Espacio y tiempo Editar

Los objetos se nos aparecen en el espacio y el tiempo, mientras que las entidades abstractas como las clases, las propiedades y las relaciones no lo hacen. ¿Cómo sirven el espacio y el tiempo a esta función como base para los objetos? ¿Son el espacio y el tiempo entidades en sí mismas, de alguna forma? ¿Deben existir antes que los objetos? ¿Cómo se pueden definir exactamente? ¿Cómo se relaciona el tiempo con el cambio si siempre hay algo que cambia para que exista el tiempo?

Causalidad Editar

La filosofía clásica reconoció una serie de causas, incluidas las causas futuras teleológicas. En la teoría de la relatividad especial y de los campos cuánticos, las nociones de espacio, tiempo y causalidad se entrelazan, y los órdenes temporales de las causas se vuelven dependientes de quién los observa. [ cita necesaria ] Las leyes de la física son simétricas en el tiempo, por lo que también se podrían usar para describir el tiempo como si se corriera hacia atrás. Entonces, ¿por qué lo percibimos como fluyendo en una dirección, la flecha del tiempo, y como conteniendo la causalidad que fluye en la misma dirección?

De hecho, ¿puede un efecto preceder a su causa? Este fue el título de un artículo de 1954 de Michael Dummett, [13] que provocó una discusión que continúa hoy. [14] Anteriormente, en 1947, C. S. Lewis había argumentado que uno puede orar de manera significativa con respecto al resultado de, por ejemplo, un examen médico mientras se reconoce que el resultado está determinado por eventos pasados: "Mi acto libre contribuye a la forma cósmica". [15] Asimismo, algunas interpretaciones de la mecánica cuántica, que datan de 1945, involucran influencias causales hacia atrás en el tiempo. [dieciséis]

Muchos filósofos vinculan la causalidad al concepto de contrafácticos. Decir que A causó B significa que si A no hubiera sucedido, entonces B no habría sucedido. Este punto de vista fue propuesto por David Lewis en su artículo de 1973 "Causation". [17] Sus artículos posteriores [18] desarrollan aún más su teoría de la causalidad.

La causalidad generalmente se requiere como base para la filosofía de la ciencia si la ciencia tiene como objetivo comprender las causas y los efectos y hacer predicciones sobre ellos.

Necesidad y posibilidad Editar

Los metafísicos investigan cuestiones sobre cómo podría haber sido el mundo. David Lewis, en Sobre la pluralidad de mundos, apoyó un punto de vista llamado realismo modal concreto, según el cual los hechos sobre cómo podrían haber sido las cosas se vuelven verdaderos por otros mundos concretos en los que las cosas son diferentes. Otros filósofos, incluido Gottfried Leibniz, también se han ocupado de la idea de mundos posibles. Un hecho necesario es cierto en todos los mundos posibles. Un hecho posible es cierto en algún mundo posible, aunque no en el mundo real. Por ejemplo, es posible que los gatos hayan tenido dos colas o que no haya existido una manzana en particular. Por el contrario, ciertas proposiciones parecen necesariamente verdaderas, como las proposiciones analíticas, por ejemplo, "Todos los solteros son solteros". La opinión de que cualquier verdad analítica es necesaria no se sostiene universalmente entre los filósofos. Un punto de vista menos controvertido es que la identidad propia es necesaria, ya que parece fundamentalmente incoherente afirmar que cualquier X no es idéntico a sí mismo esto se conoce como la ley de la identidad, un "primer principio" putativo. De manera similar, Aristóteles describe el principio de no contradicción:

Es imposible que la misma cualidad pertenezca y no pertenezca a la misma cosa. Éste es el más cierto de todos los principios. Por tanto, los que se manifiestan se refieren a esto como una opinión última. Porque es por naturaleza la fuente de todos los demás axiomas.

Cosmogonía y cosmología metafísica Editar

La cosmología metafísica es la rama de la metafísica que se ocupa del mundo como la totalidad de todos los fenómenos en el espacio y el tiempo. Históricamente, formó una parte importante de la asignatura junto con la ontología, aunque su papel es más periférico en la filosofía contemporánea. Ha tenido un alcance amplio y en muchos casos se fundó en la religión. Los antiguos griegos no hicieron distinción entre este uso y su modelo para el cosmos. Sin embargo, en los tiempos modernos aborda cuestiones sobre el Universo que están más allá del alcance de las ciencias físicas. Se distingue de la cosmología religiosa en que aborda estas cuestiones utilizando métodos filosóficos (por ejemplo, la dialéctica).

La cosmogonía se ocupa específicamente del origen del universo. La cosmología y la cosmogonía metafísicas modernas intentan abordar cuestiones como:

  • ¿Cuál es el origen del Universo? ¿Cuál es su primera causa? ¿Es necesaria su existencia? (ver monismo, panteísmo, emanacionismo y creacionismo)
  • ¿Cuáles son los componentes materiales últimos del Universo? (ver mecanismo, dinamismo, hilomorfismo, atomismo)
  • ¿Cuál es la razón última de la existencia del Universo? ¿Tiene el cosmos un propósito? (ver teleología)

Mente y materia Editar

Dar cuenta de la existencia de la mente en un mundo compuesto en gran parte de materia es un problema metafísico tan grande e importante que se ha convertido en un tema de estudio especializado por derecho propio, la filosofía de la mente.

El dualismo de sustancias es una teoría clásica en la que la mente y el cuerpo son esencialmente diferentes, la mente tiene algunos de los atributos tradicionalmente asignados al alma y crea un rompecabezas conceptual inmediato sobre cómo interactúan los dos. Esta forma de dualismo de sustancias difiere del dualismo de algunas tradiciones filosóficas orientales (como Nyāya), que también postulan un alma para el alma, bajo su punto de vista, es ontológicamente distinta de la mente. [19] El idealismo postula que los objetos materiales no existen a menos que se perciban y sólo como percepciones. Los partidarios del panpsiquismo, una especie de dualismo de propiedad, sostienen que todo tiene un aspecto mental, pero no que todo exista en una mente. El monismo neutral postula que la existencia consiste en una sola sustancia que en sí misma no es ni mental ni física, pero que es capaz de aspectos o atributos mentales y físicos; por lo tanto, implica una teoría de aspecto dual. Durante el último siglo, las teorías dominantes se han inspirado en la ciencia, incluido el monismo materialista, la teoría de la identidad de tipos, la teoría de la identidad simbólica, el funcionalismo, el fisicalismo reductivo, el fisicalismo no reductor, el materialismo eliminatorio, el monismo anómalo, el dualismo de propiedad, el epifenomenalismo y el surgimiento.

Determinismo y libre albedrío Editar

El determinismo es la proposición filosófica de que todo evento, incluida la cognición, la decisión y la acción humanas, está determinado causalmente por una cadena ininterrumpida de sucesos anteriores. Sostiene que no sucede nada que no haya sido ya determinado. La principal consecuencia de la afirmación determinista es que plantea un desafío a la existencia del libre albedrío.

El problema del libre albedrío es el problema de si los agentes racionales ejercen control sobre sus propias acciones y decisiones. Abordar este problema requiere comprender la relación entre libertad y causalidad, y determinar si las leyes de la naturaleza son causalmente deterministas. Algunos filósofos, conocidos como incompatibilistas, ven el determinismo y el libre albedrío como mutuamente excluyentes. Si creen en el determinismo, creerán que el libre albedrío es una ilusión, una posición conocida como Determinismo duro. Los proponentes van desde Baruch Spinoza hasta Ted Honderich. Henri Bergson defendió el libre albedrío en su disertación Tiempo y libre albedrío desde 1889.

Otros, etiquetados como compatibilistas (o "deterministas blandos"), creen que las dos ideas pueden reconciliarse de manera coherente. Los partidarios de este punto de vista incluyen a Thomas Hobbes y muchos filósofos modernos como John Martin Fischer, Gary Watson, Harry Frankfurt y similares.

Los incompatibilistas que aceptan el libre albedrío pero rechazan el determinismo se llaman libertarios, un término que no debe confundirse con el sentido político. Robert Kane y Alvin Plantinga son defensores modernos de esta teoría.

Tipos naturales y sociales Editar

El primer tipo de clasificación de la construcción social se remonta a Platón en su diálogo Fedro, donde afirma que el sistema de clasificación biológica parece tallar la naturaleza en las articulaciones. [20] En contraste, filósofos posteriores como Michel Foucault y Jorge Luis Borges han desafiado la capacidad de clasificación natural y social. En su ensayo El lenguaje analítico de John Wilkins, Borges nos hace imaginar una determinada enciclopedia donde los animales se dividen en (a) los que pertenecen al emperador (b) los embalsamados (c) los que están adiestrados. y así sucesivamente, para hacer surgir la ambigüedad de los tipos naturales y sociales. [21] Según la autora de metafísica Alyssa Ney: "la razón por la que todo esto es interesante es que parece haber una diferencia metafísica entre el sistema borgesiano y el de Platón". [22] La diferencia no es obvia, pero una clasificación intenta dividir las entidades de acuerdo con una distinción objetiva, mientras que la otra no lo hace. Según Quine, esta noción está estrechamente relacionada con la noción de similitud. [23]

Número Editar

Hay diferentes formas de configurar la noción de número en las teorías metafísicas. Las teorías platónicas postulan al número como una categoría fundamental en sí misma. Otros consideran que es una propiedad de una entidad llamada "grupo" que comprende otras entidades o una relación mantenida entre varios grupos de entidades, como "el número cuatro es el conjunto de todos los conjuntos de cuatro cosas". Muchos de los debates en torno a los universales se aplican al estudio de los números y son de particular importancia debido a su condición de fundamento de la filosofía de las matemáticas y de las matemáticas en sí.

Metafísica aplicada Editar

Aunque la metafísica como empresa filosófica es muy hipotética, también tiene aplicación práctica en la mayoría de las otras ramas de la filosofía, la ciencia y ahora también la tecnología de la información. Tales áreas generalmente asumen alguna ontología básica (como un sistema de objetos, propiedades, clases y espacio-tiempo) así como otras posturas metafísicas sobre temas como causalidad y agencia, luego construyen sus propias teorías particulares sobre estos.

En ciencia, por ejemplo, algunas teorías se basan en la suposición ontológica de objetos con propiedades (como los electrones que tienen carga), mientras que otras pueden rechazar los objetos por completo (como las teorías cuánticas de campos, donde la "electronidad" dispersa se convierte en propiedad del espacio. tiempo en lugar de un objeto).

Las ramas "sociales" de la filosofía como la filosofía de la moral, la estética y la filosofía de la religión (que a su vez dan lugar a temas prácticos como la ética, la política, el derecho y el arte) requieren fundamentos metafísicos, que pueden considerarse ramas o aplicaciones. de la metafísica. Por ejemplo, pueden postular la existencia de entidades básicas como el valor, la belleza y Dios. Luego, utilizan estos postulados para formular sus propios argumentos sobre las consecuencias que se derivan de ellos. Cuando los filósofos de estas materias establecen sus bases, están haciendo metafísica aplicada y pueden recurrir a sus temas y métodos centrales para guiarlos, incluida la ontología y otros temas centrales y periféricos. Al igual que en la ciencia, los fundamentos elegidos dependerán a su vez de la ontología subyacente utilizada, por lo que los filósofos en estos temas pueden tener que excavar hasta la capa ontológica de la metafísica para encontrar lo que es posible para sus teorías. Por ejemplo, una contradicción obtenida en una teoría de Dios o de la Belleza podría deberse a la suposición de que se trata de un objeto en lugar de algún otro tipo de entidad ontológica.

Ciencia Editar

Antes de la historia moderna de la ciencia, las cuestiones científicas se abordaron como parte de la filosofía natural. Originalmente, el término "ciencia" (latín: scientia) significaba simplemente "conocimiento". El método científico, sin embargo, transformó la filosofía natural en una actividad empírica derivada del experimento, a diferencia del resto de la filosofía. A finales del siglo XVIII, había comenzado a denominarse "ciencia" para distinguirla de otras ramas de la filosofía. La ciencia y la filosofía se han considerado disciplinas separadas desde entonces. A partir de entonces, la metafísica denotó una investigación filosófica de carácter no empírico sobre la naturaleza de la existencia. [24]

La metafísica sigue preguntando "por qué" donde termina la ciencia. Por ejemplo, cualquier teoría de la física fundamental se basa en algún conjunto de axiomas, que pueden postular la existencia de entidades como átomos, partículas, fuerzas, cargas, masa o campos. Enunciar tales postulados se considera el "fin" de una teoría científica. La metafísica toma estos postulados y explora lo que significan como conceptos humanos. Por ejemplo, ¿todas las teorías de la física requieren la existencia de espacio y tiempo, [25] objetos y propiedades? ¿O pueden expresarse usando solo objetos o solo propiedades? ¿Los objetos tienen que conservar su identidad a lo largo del tiempo o pueden cambiar? [26] Si cambian, ¿siguen siendo el mismo objeto? ¿Se pueden reformular las teorías convirtiendo propiedades o predicados (como "rojo") en entidades (como enrojecimiento o campos de enrojecimiento) o procesos ("hay algo de enrojecimiento allí" aparece en algunos lenguajes humanos en lugar del uso de propiedades? ). ¿Es la distinción entre objetos y propiedades fundamental para el mundo físico o para nuestra percepción de él?

Gran parte del trabajo reciente se ha dedicado a analizar el papel de la metafísica en la teorización científica. Alexandre Koyré lideró este movimiento, declarando en su libro Metafísica y medición, "No es siguiendo el experimento, sino superando al experimento, que la mente científica progresa". [27] Que las proposiciones metafísicas pueden influir en la teorización científica es la contribución más duradera de John Watkins a la filosofía. Desde 1957 [28] [29] "mostró las formas en las que algunas proposiciones no comprobables y, por tanto, según las ideas popperianas, no empíricas pueden, no obstante, influir en el desarrollo de teorías científicas y comprobables adecuadamente. Estos profundos resultados en la lógica elemental aplicada. representó un correctivo importante para las enseñanzas positivistas sobre el sinsentido de la metafísica y de las afirmaciones normativas ". [30] Imre Lakatos sostuvo que todas las teorías científicas tienen un "núcleo duro" metafísico esencial para la generación de hipótesis y supuestos teóricos. [31] Así, según Lakatos, "los cambios científicos están conectados con vastas revoluciones metafísicas cataclísmicas". [32]

Un ejemplo de biología de la tesis de Lakatos: David Hull ha argumentado que los cambios en el estado ontológico del concepto de especie han sido centrales en el desarrollo del pensamiento biológico desde Aristóteles hasta Cuvier, Lamarck y Darwin. La ignorancia de Darwin de la metafísica le hizo más difícil responder a sus críticos porque no podía comprender fácilmente las formas en que sus puntos de vista metafísicos subyacentes diferían de los suyos. [33]

En física, han surgido nuevas ideas metafísicas en relación con la mecánica cuántica, donde se puede decir que las partículas subatómicas no tienen el mismo tipo de individualidad que los particulares de los que tradicionalmente se ha ocupado la filosofía. [34] Además, la adhesión a una metafísica determinista frente al desafío planteado por el principio de incertidumbre de la mecánica cuántica llevó a físicos como Albert Einstein a proponer teorías alternativas que conservaban el determinismo. [35] A.N. Whitehead es famoso por crear una metafísica de filosofía de proceso inspirada en el electromagnetismo y la relatividad especial. [36]

En química, Gilbert Newton Lewis abordó la naturaleza del movimiento, argumentando que no se debe decir que un electrón se mueve cuando no tiene ninguna de las propiedades del movimiento. [37]

Katherine Hawley señala que la metafísica, incluso de una teoría científica ampliamente aceptada, puede ser cuestionada si se puede argumentar que los presupuestos metafísicos de la teoría no contribuyen a su éxito predictivo. [38]

Teología Editar

Existe una relación entre las doctrinas teológicas y la reflexión filosófica en la filosofía de una religión (como la filosofía cristiana), las reflexiones filosóficas son estrictamente racionales. En esta forma de ver las dos disciplinas, si al menos una de las premisas de un argumento se deriva de la revelación, el argumento cae en el dominio de la teología, de lo contrario, cae en el dominio de la filosofía. [39] [40]

Meta-metafísica es la rama de la filosofía que se ocupa de los fundamentos de la metafísica. [41] Varias personas han sugerido que se debería rechazar gran parte o la totalidad de la metafísica, una posición meta-metafísica conocida como deflacionismo metafísico [a] [42] o deflacionismo ontológico. [43]

En el siglo XVI, Francis Bacon rechazó la metafísica escolástica y defendió con fuerza lo que ahora se llama empirismo, que más tarde fue visto como el padre de la ciencia empírica moderna.En el siglo XVIII, David Hume tomó una posición fuerte, argumentando que todo conocimiento genuino involucra matemáticas o cuestiones de hecho y que la metafísica, que va más allá de estos, no tiene valor. Concluye su Investigación sobre el entendimiento humano (1748) con la declaración:

Si tomamos en nuestras manos cualquier volumen [libro] de divinidad o metafísica escolar, por ejemplo, preguntemos: ¿Contiene algún razonamiento abstracto sobre la cantidad o el número? No. ¿Contiene algún razonamiento experimental sobre la cuestión de hecho y existencia? No. Entrégalo entonces a las llamas: porque no puede contener nada más que sofismas e ilusiones. [44]

Treinta y tres años después de Hume Consulta aparecido, Immanuel Kant publicó su Crítica de la razón pura. Aunque siguió a Hume al rechazar gran parte de la metafísica anterior, argumentó que todavía había espacio para algunos conceptos sintéticos. a priori conocimiento, relacionado con cuestiones de hecho pero que se pueden obtener independientemente de la experiencia. [45] Estos incluían estructuras fundamentales de espacio, tiempo y causalidad. También defendió la libertad de la voluntad y la existencia de "cosas en sí mismas", los objetos últimos (pero incognoscibles) de la experiencia.

Wittgenstein introdujo el concepto de que la metafísica podría estar influenciada por las teorías de la estética, a través de la lógica, vis. un mundo compuesto de "hechos atómicos". [46] [47]

En la década de 1930, A.J. Ayer y Rudolf Carnap respaldaron la posición de Hume. Carnap citó el pasaje anterior. [48] ​​Argumentaron que los enunciados metafísicos no son ni verdaderos ni falsos, sino que carecen de significado, ya que, de acuerdo con su teoría de la verificabilidad del significado, un enunciado es significativo solo si puede haber evidencia empírica a favor o en contra. Así, mientras Ayer rechazó el monismo de Spinoza, evitó un compromiso con el pluralismo, la posición contraria, al sostener que ambos puntos de vista carecen de significado. [49] Carnap adoptó una línea similar con la controversia sobre la realidad del mundo exterior. [50] Si bien el movimiento del positivismo lógico ahora se considera muerto (con Ayer, uno de los principales defensores, admitiendo en una entrevista televisiva de 1979 que "casi todo era falso"), [51] ha seguido influyendo en el desarrollo de la filosofía. [52]

Argumentando contra tales rechazos, el filósofo escolástico Edward Feser sostuvo que la crítica de Hume a la metafísica, y específicamente la bifurcación de Hume, es "notoriamente auto-refutada". [53] Feser sostiene que la bifurcación de Hume en sí misma no es una verdad conceptual y no es empíricamente comprobable.

Algunos filósofos vivos, como Amie Thomasson, han argumentado que muchas preguntas metafísicas pueden disolverse con solo mirar la forma en que usamos las palabras. Otros, como Ted Sider, han argumentado que las preguntas metafísicas son sustantivas y que podemos avanzar hacia la respuesta. ellos comparando teorías de acuerdo con una serie de virtudes teóricas inspiradas en las ciencias, como la simplicidad y el poder explicativo. [54]

La palabra "metafísica" deriva de las palabras griegas μετά (meta, "después") y φυσικά (Physiká, "física"). [55] Se usó por primera vez como título para varias de las obras de Aristóteles, porque generalmente se antologizaban después de las obras sobre física en ediciones completas. El prefijo meta- ("después") indica que estos trabajos vienen "después" de los capítulos sobre física. Sin embargo, el propio Aristóteles no llamó metafísica al tema de estos libros: se refirió a él como "primera filosofía"(Griego: πρώτη φιλοσοφία Latín: Philosophia prima). Se cree que el editor de las obras de Aristóteles, Andrónico de Rodas, colocó los libros sobre la primera filosofía inmediatamente después de otra obra, Física, y los llamó τὰ μετὰ τὰ φυσικὰ βιβλία (tà metà tà physikà biblía) o "los libros [que vienen] después de los [libros sobre] física".

Sin embargo, una vez que se dio el nombre, los comentaristas buscaron otras razones para su idoneidad. Por ejemplo, Tomás de Aquino entendió que se refería al orden cronológico o pedagógico entre nuestros estudios filosóficos, de modo que las "ciencias metafísicas" significarían "aquellas que estudiamos después de haber dominado las ciencias que se ocupan del mundo físico". [56]

El término fue mal interpretado por otros comentaristas medievales, que pensaron que significaba "la ciencia de lo que está más allá de lo físico". [57] Siguiendo esta tradición, el prefijo meta- más recientemente se ha prefijado a los nombres de las ciencias para designar las ciencias superiores que se ocupan de problemas ulteriores y más fundamentales: de ahí la metamatemática, la metafisiología, etc. [58]

Una persona que crea o desarrolla teorías metafísicas se llama un metafísico. [59]

El lenguaje común también usa la palabra "metafísica" para un referente diferente al del presente artículo, a saber, para creencias en entidades arbitrarias no físicas o mágicas. Por ejemplo, "curación metafísica" para referirse a la curación por medio de remedios mágicos más que científicos. [60] Este uso se originó en las diversas escuelas históricas de metafísica especulativa que operaban postulando todo tipo de entidades físicas, mentales y espirituales como bases para sistemas metafísicos particulares. La metafísica como sujeto no excluye las creencias en tales entidades mágicas, pero tampoco las promueve. Más bien, es el tema el que proporciona el vocabulario y la lógica con los que tales creencias pueden ser analizadas y estudiadas, por ejemplo, para buscar inconsistencias tanto dentro de sí mismas como con otros sistemas aceptados como la ciencia.

Edición previa al historial

La arqueología cognitiva, como el análisis de pinturas rupestres y otras costumbres y arte prehistórico, sugiere que una forma de filosofía perenne o metafísica chamánica puede remontarse al nacimiento de la modernidad conductual en todo el mundo. Se encuentran creencias similares en las culturas actuales de la "edad de piedra", como los aborígenes australianos. La filosofía perenne postula la existencia de un mundo espiritual o conceptual junto con el mundo cotidiano y las interacciones entre estos mundos durante el sueño y el ritual, o en días especiales o en lugares especiales. Se ha argumentado que la filosofía perenne formó la base del platonismo, con Platón articulando, en lugar de crear, creencias generalizadas mucho más antiguas. [61] [62]

Edad de Bronce Editar

Las culturas de la Edad del Bronce como la antigua Mesopotamia y el antiguo Egipto (junto con culturas de estructura similar pero cronológicamente posteriores como los mayas y los aztecas) desarrollaron sistemas de creencias basados ​​en la mitología, dioses antropomórficos, dualismo mente-cuerpo, [ cita necesaria ] y un mundo espiritual, [ cita necesaria ] para explicar las causas y la cosmología. Estas culturas parecen haber estado interesadas en la astronomía y pueden haber asociado o identificado las estrellas con algunas de estas entidades. En el antiguo Egipto, la distinción ontológica entre orden (maat) y caos (Isfet) parece haber sido importante. [63]

Grecia presocrática Editar

El primer filósofo griego nombrado, según Aristóteles, es Tales de Mileto, a principios del siglo VI a. C. Hizo uso de explicaciones puramente físicas para explicar los fenómenos del mundo en lugar de las explicaciones mitológicas y divinas de la tradición. Se cree que postuló el agua como el único principio subyacente (o Arche en terminología aristotélica posterior) del mundo material. Sus compañeros, pero miletianos más jóvenes, Anaximandro y Anaxímenes, también postularon principios subyacentes monistas, a saber, apeiron (lo indefinido o ilimitado) y el aire, respectivamente.

Otra escuela fue la Eleatics, en el sur de Italia. El grupo fue fundado a principios del siglo V a. C. por Parménides e incluía a Zenón de Elea y Meliso de Samos. Metodológicamente, los eleáticos eran ampliamente racionalistas y tomaban los estándares lógicos de claridad y necesidad como criterios de verdad. La doctrina principal de Parménides era que la realidad es un único Ser universal e inmutable. Zeno usó reducción al absurdo, para demostrar la naturaleza ilusoria del cambio y el tiempo en sus paradojas.

Heráclito de Éfeso, por el contrario, hizo que el cambio fuera central, enseñando que "todas las cosas fluyen". Su filosofía, expresada en breves aforismos, es bastante críptica. Por ejemplo, también enseñó la unidad de los opuestos.

Demócrito y su maestro Leucipo, son conocidos por formular una teoría atómica del cosmos. [64] Se les considera precursores del método científico.

China clásica Editar

La metafísica en la filosofía china se remonta a los primeros conceptos filosóficos chinos de la dinastía Zhou, como Tian (cielo) y Yin y Yang. El siglo IV a. C. vio un giro hacia la cosmogonía con el surgimiento del taoísmo (en el Daodejing y Zhuangzi) y ve el mundo natural como procesos dinámicos y en constante cambio que surgen espontáneamente de una única fuente o principio metafísico inmanente (Tao). [65] Otra escuela filosófica que surgió en esta época fue la Escuela de Naturalistas que vio el principio metafísico último como el Taiji, la "polaridad suprema" compuesta por las fuerzas del Yin y el Yang que siempre estaban en un estado de cambio buscando el equilibrio. Otra preocupación de la metafísica china, especialmente del taoísmo, es la relación y la naturaleza del ser y el no ser (tú 有 y wu 無). Los taoístas sostenían que lo último, el Tao, era también el no ser o la ausencia. [65] Otros conceptos importantes fueron los de generación espontánea o vitalidad natural (Ziran) y "resonancia correlativa" (Ganying).

Después de la caída de la dinastía Han (220 d.C.), China vio el surgimiento de la escuela neo-taoísta Xuanxue. Esta escuela fue muy influyente en el desarrollo de los conceptos de la metafísica china posterior. [65] La filosofía budista entró en China (c. Siglo I) y fue influenciada por los conceptos metafísicos chinos nativos para desarrollar nuevas teorías. Las escuelas de filosofía nativas de Tiantai y Huayen mantuvieron y reinterpretaron las teorías indias de shunyata (vacuidad, kong 空) y la naturaleza búdica (Fo xing 佛性) en la teoría de la interpenetración de los fenómenos. Los neoconfucianos como Zhang Zai, bajo la influencia de otras escuelas, desarrollaron los conceptos de "principio" (li) y energía vital (qi).

Grecia clásica Editar

Sócrates y Platón editar

Sócrates es conocido por su enfoque dialéctico o cuestionador de la filosofía más que por una doctrina metafísica positiva.

Su alumno, Platón, es famoso por su teoría de las formas (que pone en boca de Sócrates en sus diálogos). El realismo platónico (también considerado una forma de idealismo) [66] se considera una solución al problema de los universales, es decir, lo que los objetos particulares tienen en común es que comparten una forma específica que es universal para todos los demás de su tipo respectivo.

La teoría tiene otros aspectos:

  • Epistemológico: el conocimiento de las Formas es más cierto que los meros datos sensoriales.
  • Ético: La forma del bien establece un estándar objetivo de moralidad.
  • Tiempo y Cambio: El mundo de las Formas es eterno e inmutable. El tiempo y el cambio pertenecen únicamente al mundo sensorial inferior. "El tiempo es una imagen en movimiento de la eternidad".
  • Objetos abstractos y matemáticas: los números, las figuras geométricas, etc., existen independientemente de la mente en el Mundo de las Formas.

El platonismo se convirtió en neoplatonismo, una filosofía con un sabor monoteísta y místico que sobrevivió hasta bien entrada la era cristiana.

Aristóteles editar

Aristóteles, alumno de Platón, escribió ampliamente sobre casi todos los temas, incluida la metafísica. Su solución al problema de los universales contrasta con la de Platón. Mientras que las formas platónicas son existencialmente aparentes en el mundo visible, las esencias aristotélicas habitan en los particulares.

Potencialidad y actualidad [67] son ​​principios de una dicotomía que Aristóteles utilizó a lo largo de sus obras filosóficas para analizar el movimiento, la causalidad y otras cuestiones.

La teoría aristotélica del cambio y la causalidad se extiende a cuatro causas: la material, la formal, la eficiente y la final. La causa eficiente corresponde a lo que ahora se conoce como causa. sencillez. Las causas finales son explícitamente teleológicas, un concepto que ahora se considera controvertido en la ciencia. [68] La dicotomía Materia / Forma iba a ser muy influyente en la filosofía posterior como distinción sustancia / esencia.

Los argumentos iniciales en Aristóteles Metafísica, Libro I, giran en torno a los sentidos, el conocimiento, la experiencia, la teoría y la sabiduría. El primer enfoque principal de la Metafísica es intentar determinar cómo el intelecto "avanza desde la sensación a través de la memoria, la experiencia y el arte, hasta el conocimiento teórico". [69] Aristóteles afirma que la vista nos proporciona la capacidad de reconocer y recordar experiencias, mientras que el sonido nos permite aprender.

India clásica Editar

Más sobre la filosofía india: filosofía hindú

Sāṃkhya Editar

Sāṃkhya es un antiguo sistema de filosofía india basado en un dualismo que involucra los principios fundamentales de la conciencia y la materia. [70] Se describe como la escuela racionalista de la filosofía india. [71] Está más relacionado con la escuela de yoga del hinduismo, y su método fue más influyente en el desarrollo del budismo temprano. [72]

El Sāmkhya es una filosofía enumeracionista cuya epistemología acepta tres de los seis pramanas (pruebas) como el único medio confiable para obtener conocimiento. Éstos incluyen pratyakṣa (percepción), anumāṇa (inferencia) y śabda (āptavacana, palabra / testimonio de fuentes confiables). [73] [74] [75]

Samkhya es fuertemente dualista. [76] [77] [78] La filosofía Sāmkhya considera que el universo consta de dos realidades puruṣa (conciencia) y prakṛti (materia). Jiva (un ser vivo) es ese estado en el que puruṣa está unido a prakṛti de alguna forma. [79] Esta fusión, afirman los eruditos del Samkhya, condujo al surgimiento de buddhi ("conciencia espiritual") y ahaṅkāra (conciencia del ego). Esta escuela describe el universo como uno creado por entidades purusa-prakṛti imbuidas de diversas permutaciones y combinaciones de elementos, sentidos, sentimientos, actividad y mente enumerados de manera variada. [79] Durante el estado de desequilibrio, uno o más componentes abruma a los demás, creando una forma de esclavitud, particularmente de la mente. El fin de este desequilibrio, la esclavitud, es llamado liberación, o moksha, por la escuela Samkhya. [80]

La existencia de Dios o del ser supremo no es afirmada directamente ni considerada relevante por los filósofos del Samkhya. Sāṃkhya niega la causa final de Ishvara (Dios). [81] Si bien la escuela Samkhya considera a los Vedas como una fuente confiable de conocimiento, es una filosofía atea según Paul Deussen y otros eruditos. [82] [83] Una diferencia clave entre las escuelas de Samkhya y Yoga, los eruditos estatales, [83] [84] es que la escuela de Yoga acepta una "deidad personal, pero esencialmente inactiva" o "dios personal". [85]

Samkhya es conocido por su teoría de guṇas (cualidades, tendencias innatas). [86] Guṇa, afirma, son de tres tipos: sattva ser bueno, compasivo, esclarecedor, positivo y constructivo rajas es de actividad, caótica, apasionada, impulsiva, potencialmente buena o mala y tamas siendo la cualidad de oscuridad, ignorancia, destructiva, letárgica, negativa. Todo, todas las formas de vida y los seres humanos, afirman los eruditos del Samkhya, tienen estas tres guṇas, pero en diferentes proporciones. La interacción de estas guṇas define el carácter de alguien o algo, de la naturaleza y determina el progreso de la vida. [87] [88] La teoría Samkhya de guṇas fue ampliamente discutida, desarrollada y refinada por varias escuelas de filosofías indias, incluido el budismo. [89] Los tratados filosóficos de Samkhya también influyeron en el desarrollo de varias teorías de la ética hindú. [72]

Vedānta Editar

La comprensión de la naturaleza de la autoidentidad es el objeto principal del sistema Vedanta de la metafísica india. En los Upanishads, la autoconciencia no es la autoconciencia indical en primera persona o la autoconciencia que es la autorreferencia sin identificación, [90] y tampoco la autoconciencia que, como una especie de deseo, es satisfecha por otro. Autoconciencia. [91] Es la realización del Ser, la realización del Ser que consiste en la conciencia que dirige todo lo demás. [92]

La palabra Autoconciencia en los Upanishads significa el conocimiento sobre la existencia y naturaleza de Brahman. Significa la conciencia de nuestro propio ser real, la realidad primaria. [93] Autoconciencia significa Autoconocimiento, el conocimiento de Prajna, es decir, de Prana, que es Brahman. [94] Según los Upanishads, el Atman o Paramatman es fenomenalmente incognoscible, es el objeto de la realización. El Atman es incognoscible en su naturaleza esencial, es incognoscible en su naturaleza esencial porque es el sujeto eterno que conoce todo, incluyéndose a sí mismo. El Atman es el conocedor y también lo conocido. [95]

Los metafísicos consideran que el Sí mismo es distinto del Absoluto o completamente idéntico al Absoluto. Han dado forma a tres escuelas de pensamiento: a) la Escuela dualista, b) el Escuela cuasi-dualista yc) el Escuela monista, como resultado de sus variadas experiencias místicas. Prakrti y Atman, cuando se tratan como dos aspectos separados y distintos, forman la base del dualismo del Shvetashvatara Upanishad. [96] El cuasi-dualismo se refleja en el monoteísmo vaishnavita de Ramanuja y el monismo absoluto, en las enseñanzas de Adi Shankara. [97]

La autoconciencia es el cuarto estado de conciencia o Turiya, siendo los tres primeros Vaisvanara, Taijasa y Prajna. Estos son los cuatro estados de la conciencia individual.

Hay tres etapas distintas que conducen a la autorrealización. La Primera etapa consiste en aprehender místicamente la gloria del Sí mismo dentro de nosotros como si fuéramos distintos de él. La segunda etapa consiste en identificar el "yo interior" con el Sí mismo, que en la naturaleza esencial somos completamente idénticos al Sí mismo puro. La tercera etapa consiste en darse cuenta de que el Atman es Brahman, que no hay diferencia entre el Sí mismo y el Absoluto. La cuarta etapa es darse cuenta de que "yo soy el Absoluto" - Aham Brahman Asmi. La Quinta etapa consiste en darse cuenta de que Brahman es el "Todo" que existe, como también lo que no existe. [98]

Metafísica budista editar

En la filosofía budista existen varias tradiciones metafísicas que han propuesto diferentes preguntas sobre la naturaleza de la realidad basadas en las enseñanzas del Buda en los primeros textos budistas.El Buda de los primeros textos no se centra en cuestiones metafísicas sino en la formación ética y espiritual y, en algunos casos, descarta ciertas cuestiones metafísicas por considerarlas inútiles e indeterminadas Avyakta, que recomienda dejar de lado. El desarrollo de la metafísica sistemática surgió después de la muerte de Buda con el surgimiento de las tradiciones Abhidharma. [99] Las escuelas budistas Abhidharma desarrollaron su análisis de la realidad basándose en el concepto de dharmas que son los últimos acontecimientos físicos y mentales que componen la experiencia y sus relaciones entre sí. Noa Ronkin ha llamado a su enfoque "fenomenológico". [100]

Las tradiciones filosóficas posteriores incluyen la escuela Madhyamika de Nagarjuna, que desarrolló aún más la teoría de la vacuidad (shunyata) de todos los fenómenos o dharmas que rechaza cualquier tipo de sustancia. Esto ha sido interpretado como una forma de antifundacionalismo y antirrealismo que considera que la realidad no tiene esencia o fundamento último. [101] Mientras tanto, la escuela Yogacara promovió una teoría llamada "sólo conciencia" (vijnapti-matra) que ha sido interpretada como una forma de idealismo o fenomenología y niega la división entre la conciencia misma y los objetos de la conciencia. [102]

Metafísica islámica Editar

Las principales ideas de la metafísica sufí han rodeado el concepto de weḥdah (وحدة) que significa "unidad", o en árabe توحيد tawhid. waḥdat al-wujūd significa literalmente "Unidad de Existencia" o "Unidad de Ser". La frase se ha traducido como "panteísmo". [103] Wujud (es decir, existencia o presencia) aquí se refiere al wujud de Allah (compárese con tawhid). Por otro lado, waḥdat ash-shuhūd, que significa "Aparenciamiento" o "Monoteísmo del Testigo", sostiene que Dios y su creación están completamente separados.

Escolástica y Edad Media Editar

Más sobre filosofía y metafísica medieval: Filosofía medieval

Aproximadamente entre 1100 y 1500, la filosofía como disciplina se desarrolló como parte del sistema de enseñanza de la iglesia católica, conocido como escolasticismo. La filosofía escolástica tuvo lugar dentro de un marco establecido que combinaba la teología cristiana con las enseñanzas aristotélicas. Aunque las ortodoxias fundamentales no fueron cuestionadas comúnmente, hubo sin embargo profundos desacuerdos metafísicos, particularmente sobre el problema de los universales, que involucraron a Duns Scotus y Pierre Abelard. Guillermo de Ockham es recordado por su principio de parsimonia ontológica.

Racionalismo continental Editar

En el período moderno temprano (siglos XVII y XVIII), la construcción de sistemas alcance de la filosofía a menudo se vincula con el racionalista método de la filosofía, que es la técnica de deducir la naturaleza del mundo por la razón pura. Se emplearon los conceptos escolásticos de sustancia y accidente.

    propuesto en su Monadología una pluralidad de sustancias que no interactúan. es famoso por su dualismo de sustancias materiales y mentales. creía que la realidad era una sola sustancia de Dios o la naturaleza.

Wolff Editar

Christian Wolff tenía la filosofía teórica dividida en una ontología o Philosophia prima como una metafísica general, [104] que surge como preliminar a la distinción de las tres "metafísicas especiales" [105] sobre el alma, el mundo y Dios: [106] [107] psicología racional, [108] [109] racional cosmología [110] y teología racional. [111] Las tres disciplinas se denominan empíricas y racionales porque son independientes de la revelación. Este esquema, que es la contraparte de la tripartición religiosa en criatura, creación y Creador, es mejor conocido por los estudiantes de filosofía por el tratamiento que Kant le da en el Crítica de la razón pura. En el "Prefacio" de la segunda edición del libro de Kant, Wolff se define como "el más grande de todos los filósofos dogmáticos". [112]

Empirismo británico editar

El empirismo británico marcó una especie de reacción a la metafísica racionalista y constructora de sistemas, o especulativo metafísica, como se la denominó peyorativamente. El escéptico David Hume declaró que la mayoría de la metafísica debería ser abandonada a las llamas (ver más abajo). Hume fue conocido entre sus contemporáneos como uno de los primeros filósofos en dudar abiertamente de la religión, pero ahora es más conocido por su crítica de la causalidad. John Stuart Mill, Thomas Reid y John Locke fueron menos escépticos y adoptaron un estilo de metafísica más cauteloso basado en el realismo, el sentido común y la ciencia. Otros filósofos, en particular George Berkeley, fueron llevados del empirismo a la metafísica idealista.

Kant Editar

Immanuel Kant intentó una gran síntesis y revisión de las tendencias ya mencionadas: filosofía escolástica, metafísica sistemática y empirismo escéptico, sin olvidar la ciencia floreciente de su época. Al igual que los creadores de sistemas, tenía un marco general en el que debían abordarse todas las cuestiones. Al igual que Hume, quien lo despertó de sus 'sueños dogmáticos', sospechaba de la especulación metafísica y también pone mucho énfasis en las limitaciones de la mente humana. Kant describió su cambio en la metafísica de hacer afirmaciones sobre un mundo nouménico objetivo, hacia la exploración del mundo fenoménico subjetivo, como una revolución copernicana, por analogía (aunque en dirección opuesta a) el cambio de Copérnico del hombre (el sujeto) al sol. (un objeto) en el centro del universo.

Kant consideraba que los filósofos racionalistas aspiraban a un tipo de conocimiento metafísico que definía como el apriori sintético—Eso es un conocimiento que no proviene de los sentidos (es a priori) pero que sin embargo se trata de la realidad (sintética). En la medida en que se trata de la realidad, se diferencia de las proposiciones matemáticas abstractas (que él denomina analíticas apriori) y, al ser apriori, es distinto del conocimiento científico empírico (que denomina aposteriori sintético). El único conocimiento sintético a priori que podemos tener es de cómo nuestras mentes organizan los datos de los sentidos, ese marco organizativo es el espacio y el tiempo, que para Kant no tienen una existencia independiente de la mente, pero que, no obstante, operan de manera uniforme en todos los humanos. El conocimiento a priori del espacio y el tiempo es todo lo que queda de la metafísica tal como se concibe tradicionalmente. Allí es una realidad más allá de los datos o fenómenos sensoriales, que él llama el reino de los noúmenos, sin embargo, no podemos conocerla como es en sí misma, sino sólo como nos aparece. Se permite especular que los orígenes del Dios fenomenal, la moralidad y el libre albedrío podría existen en el reino nouménico, pero estas posibilidades deben compararse con su incognoscibilidad básica para los humanos. Aunque se veía a sí mismo como si hubiera desechado la metafísica, en cierto sentido, en general se le ha considerado en retrospectiva como poseedor de una metafísica propia y como iniciador de la concepción analítica moderna del sujeto.

Filosofía moderna tardía Editar

La filosofía del siglo XIX estuvo abrumadoramente influenciada por Kant y sus sucesores. Schopenhauer, Schelling, Fichte y Hegel presentaron sus propias versiones panorámicas del idealismo alemán, habiendo quedado en el camino la precaución de Kant sobre la especulación metafísica y la refutación del idealismo. El impulso idealista continuó hasta principios del siglo XX con idealistas británicos como F. ​​H. Bradley y J. M. E. McTaggart. Los seguidores de Karl Marx tomaron la visión dialéctica de la historia de Hegel y la reformularon como materialismo.

Filosofía analítica temprana y positivismo Editar

Durante el período en que el idealismo dominaba la filosofía, la ciencia había realizado grandes avances. La llegada de una nueva generación de filósofos con mentalidad científica condujo a un fuerte declive en la popularidad del idealismo durante la década de 1920.

La filosofía analítica fue encabezada por Bertrand Russell y G. E. Moore. Russell y William James intentaron llegar a un compromiso entre el idealismo y el materialismo con la teoría del monismo neutral.

La filosofía de principios a mediados del siglo XX vio una tendencia a rechazar las cuestiones metafísicas por carecer de sentido. La fuerza impulsora detrás de esta tendencia fue la filosofía del positivismo lógico, tal como lo propugna el Círculo de Viena, que argumentó que el significado de un enunciado era su predicción de los resultados observables de un experimento y, por lo tanto, que no hay necesidad de postular la existencia de ningún enunciado. objetos distintos de estas observaciones perceptivas.

Aproximadamente al mismo tiempo, los pragmáticos estadounidenses estaban siguiendo un curso intermedio entre el materialismo y el idealismo. La metafísica de construcción de sistemas, con una nueva inspiración de la ciencia, fue revivida por A. N. Whitehead y Charles Hartshorne.

Filosofía continental Editar

Las fuerzas que dieron forma a la filosofía analítica —la ruptura con el idealismo y la influencia de la ciencia— fueron mucho menos significativas fuera del mundo de habla inglesa, aunque hubo un giro compartido hacia el lenguaje. La filosofía continental continuó en una trayectoria desde el post-kantismo.

La fenomenología de Husserl y otros fue concebida como un proyecto colaborativo para la investigación de las características y la estructura de la conciencia común a todos los humanos, en línea con Kant que basa su apriori sintético en el funcionamiento uniforme de la conciencia. Era oficialmente neutral con respecto a la ontología, pero no obstante, iba a generar una serie de sistemas metafísicos. El concepto de intencionalidad de Brentano se volvería muy influyente, incluso en la filosofía analítica.

Heidegger, autor de Ser y tiempo, se vio a sí mismo como reenfocado en el Ser-qua-ser, introduciendo el nuevo concepto de Dasein en el proceso. Clasificándose a sí mismo como existencialista, Sartre escribió un extenso estudio de Ser y nada.

El movimiento del realismo especulativo marca un regreso al realismo de pura cepa.

Procesar metafísica Editar

Hay dos aspectos fundamentales de la experiencia cotidiana: el cambio y la persistencia. Hasta hace poco, la tradición filosófica occidental ha defendido la sustancia y la persistencia, sin embargo, con algunas excepciones notables. Según los pensadores de procesos, la novedad, el flujo y el accidente sí importan y, a veces, constituyen la realidad última.

En un sentido amplio, la metafísica de procesos es tan antigua como la filosofía occidental, con figuras como Heráclito, Plotino, Duns Escoto, Leibniz, David Hume, Georg Wilhelm Friedrich Hegel, Friedrich Wilhelm Joseph von Schelling, Gustav Theodor Fechner, Friedrich Adolf Trendelenburg, Charles Renouvier, Karl Marx, Ernst Mach, Friedrich Wilhelm Nietzsche, Émile Boutroux, Henri Bergson, Samuel Alexander y Nicolas Berdyaev. Al parecer, sigue siendo una cuestión abierta si deberían incluirse las principales figuras "continentales" como el fallecido Martin Heidegger, Maurice Merleau-Ponty, Gilles Deleuze, Michel Foucault o Jacques Derrida. [113]

En un sentido estricto, la metafísica del proceso puede limitarse a las obras de unos pocos padres fundadores: G. W. F. Hegel, Charles Sanders Peirce, William James, Henri Bergson, A. N. Whitehead y John Dewey. Desde una perspectiva europea, hubo una influencia whiteheadiana muy significativa y temprana en las obras de destacados eruditos como Émile Meyerson (1859-1933), Louis Couturat (1868-1914), Jean Wahl (1888-1974), Robin George Collingwood ( 1889-1943), Philippe Devaux (1902-1979), Hans Jonas (1903-1993), Dorothy M. Emmett (1904-2000), Maurice Merleau Ponty (1908-1961), Enzo Paci (1911-1976), Charlie Dunbar Broad (1887-1971), Wolfe Mays (1912-2005), Ilya Prigogine (1917-2003), Jules Vuillemin (1920-2001), Jean Ladrière (1921-2007), Gilles Deleuze (1925-1995), Wolfhart Pannenberg ( 1928-2014) y Reiner Wiehl (1929-2010). [114]

Filosofía analítica contemporánea Editar

Si bien la filosofía analítica temprana tendió a rechazar la teorización metafísica, bajo la influencia del positivismo lógico, revivió en la segunda mitad del siglo XX. Filósofos como David K. Lewis y David Armstrong desarrollaron teorías elaboradas sobre una variedad de temas tales como universales, causalidad, posibilidad y necesidad y objetos abstractos. Sin embargo, el enfoque de la filosofía analítica generalmente se aleja de la construcción de sistemas que lo abarcan todo y se dirige al análisis detallado de las ideas individuales.

Entre los desarrollos que llevaron al resurgimiento de la teorización metafísica se encontraba el ataque de Quine a la distinción analítico-sintética, que generalmente se consideró para socavar la distinción de Carnap entre cuestiones de existencia internas a un marco y aquellas externas a él. [115]

La filosofía de la ficción, el problema de los nombres vacíos y el debate sobre el estatus de la existencia como una propiedad han pasado de una relativa oscuridad al centro de atención, mientras que cuestiones perennes como el libre albedrío, los mundos posibles y la filosofía del tiempo han cobrado nueva vida. respirado en ellos. [116] [117]

La visión analítica es de la metafísica como estudio de conceptos humanos fenomenales en lugar de hacer afirmaciones sobre el mundo nouménico, por lo que su estilo a menudo se confunde con la filosofía del lenguaje y la psicología introspectiva. En comparación con la construcción de sistemas, puede parecer muy seco, estilísticamente similar a la programación de computadoras, las matemáticas o incluso la contabilidad (ya que un objetivo común declarado es "dar cuenta" de las entidades en el mundo). [ cita necesaria ]


Contenido

La relatividad especial fue propuesta originalmente por Albert Einstein en un artículo publicado el 26 de septiembre de 1905 titulado "Sobre la electrodinámica de los cuerpos en movimiento". [p 1] La incompatibilidad de la mecánica newtoniana con las ecuaciones de electromagnetismo de Maxwell y, experimentalmente, el resultado nulo de Michelson-Morley (y experimentos similares posteriores) demostraron que el éter luminífero históricamente hipotetizado no existía. Esto llevó al desarrollo de Einstein de la relatividad especial, que corrige la mecánica para manejar situaciones que involucran todos los movimientos y especialmente aquellos a una velocidad cercana a la de la luz (conocida como velocidades relativistas ). Hoy en día, se ha demostrado que la relatividad especial es el modelo de movimiento más preciso a cualquier velocidad cuando los efectos gravitacionales y cuánticos son insignificantes. [3] [4] Aun así, el modelo newtoniano sigue siendo válido como una aproximación simple y precisa a velocidades bajas (en relación con la velocidad de la luz), por ejemplo, los movimientos cotidianos en la Tierra.

La relatividad especial tiene una amplia gama de consecuencias que se han verificado experimentalmente. [5] Incluyen la relatividad de la simultaneidad, la contracción de la longitud, la dilatación del tiempo, la fórmula de adición de velocidad relativista, el efecto Doppler relativista, la masa relativista, un límite de velocidad universal, la equivalencia masa-energía, la velocidad de causalidad y la precesión de Thomas. [1] [2] Por ejemplo, ha reemplazado la noción convencional de un tiempo universal absoluto con la noción de un tiempo que depende del marco de referencia y la posición espacial. En lugar de un intervalo de tiempo invariante entre dos eventos, existe un intervalo de espacio-tiempo invariante. Combinados con otras leyes de la física, los dos postulados de la relatividad especial predicen la equivalencia de masa y energía, como se expresa en la fórmula de equivalencia masa-energía E = mc 2 < displaystyle E = mc ^ <2>>, donde c < displaystyle c> es la velocidad de la luz en el vacío. [6] [7] También explica cómo se relacionan los fenómenos de la electricidad y el magnetismo. [1] [2]

Una característica definitoria de la relatividad especial es el reemplazo de las transformaciones galileanas de la mecánica newtoniana por las transformaciones de Lorentz. El tiempo y el espacio no se pueden definir por separado (como se pensaba anteriormente). Más bien, el espacio y el tiempo están entretejidos en un único continuo conocido como "espacio-tiempo". Los eventos que ocurren al mismo tiempo para un observador pueden ocurrir en diferentes momentos para otro.

Hasta que Einstein desarrolló la relatividad general, introduciendo un espacio-tiempo curvo para incorporar la gravedad, no se utilizó la frase "relatividad especial". Una traducción que se utiliza a veces es "relatividad restringida" "especial" en realidad significa "caso especial". [p 2] [p 3] [p 4] [nota 1] Parte del trabajo de Albert Einstein en relatividad especial se basa en el trabajo anterior de Hendrik Lorentz y Henri Poincaré. La teoría se completó esencialmente en 1907. [4]

La teoría es "especial" en el sentido de que sólo se aplica en el caso especial donde el espacio-tiempo es "plano", es decir, la curvatura del espacio-tiempo, descrita por el tensor de energía-momento y que causa la gravedad, es despreciable. [8] [nota 2] Para acomodar correctamente la gravedad, Einstein formuló la relatividad general en 1915. La relatividad especial, contrariamente a algunas descripciones históricas, admite tanto las aceleraciones como los marcos de referencia acelerados. [9] [10]

Así como ahora se acepta que la relatividad galileana es una aproximación de la relatividad especial que es válida para velocidades bajas, la relatividad especial se considera una aproximación de la relatividad general que es válida para campos gravitacionales débiles, es decir, a una escala suficientemente pequeña (por ejemplo, cuando las fuerzas de las mareas son insignificantes) y en condiciones de caída libre. La relatividad general, sin embargo, incorpora geometría no euclidiana para representar los efectos gravitacionales como la curvatura geométrica del espacio-tiempo. La relatividad especial está restringida al espacio-tiempo plano conocido como espacio de Minkowski. Siempre que el universo pueda modelarse como una variedad pseudo-Riemanniana, se puede definir un marco invariante de Lorentz que se rija por la relatividad especial para una vecindad suficientemente pequeña de cada punto en este espacio-tiempo curvo.

Galileo Galilei ya había postulado que no existe un estado de reposo absoluto y bien definido (ni marcos de referencia privilegiados), un principio que ahora se llama principio de relatividad de Galileo. Einstein extendió este principio de modo que explicara la velocidad constante de la luz, [11] un fenómeno que se había observado en el experimento de Michelson-Morley. También postuló que se aplica a todas las leyes de la física, incluidas las leyes de la mecánica y la electrodinámica. [12]

Albert Einstein: Notas autobiográficas [p 5]

Einstein discernió dos proposiciones fundamentales que parecían ser las más seguras, independientemente de la validez exacta de las (entonces) conocidas leyes de la mecánica o la electrodinámica. Estas proposiciones eran la constancia de la velocidad de la luz en el vacío y la independencia de las leyes físicas (especialmente la constancia de la velocidad de la luz) de la elección del sistema inercial. En su presentación inicial de la relatividad especial en 1905, expresó estos postulados como: [p 1]

  • El principio de relatividad: las leyes por las cuales los estados de los sistemas físicos experimentan cambios no se ven afectadas, ya sea que estos cambios de estado se refieran a uno u otro de dos sistemas en movimiento de traslación uniforme entre sí. [p 1]
  • El principio de la velocidad de la luz invariable - ".la luz siempre se propaga en el espacio vacío con una velocidad definida [speed] C que es independiente del estado de movimiento del cuerpo emisor "(del prefacio). [p 1] Es decir, la luz en el vacío se propaga con la velocidad C (una constante fija, independiente de la dirección) en al menos un sistema de coordenadas inerciales (el "sistema estacionario"), independientemente del estado de movimiento de la fuente de luz.

La constancia de la velocidad de la luz fue motivada por la teoría del electromagnetismo de Maxwell y la falta de evidencia del éter luminífero. Existe evidencia contradictoria sobre hasta qué punto Einstein fue influenciado por el resultado nulo del experimento de Michelson-Morley. [13] [14] En cualquier caso, el resultado nulo del experimento de Michelson-Morley ayudó a que la noción de la constancia de la velocidad de la luz ganara una aceptación generalizada y rápida.

La derivación de la relatividad especial depende no solo de estos dos postulados explícitos, sino también de varios supuestos tácitos (hechos en casi todas las teorías de la física), incluida la isotropía y la homogeneidad del espacio y la independencia de las varillas de medición y los relojes de su historia pasada. [p 6]

Siguiendo la presentación original de Einstein de la relatividad especial en 1905, se han propuesto muchos conjuntos diferentes de postulados en diversas derivaciones alternativas. [15] Sin embargo, el conjunto de postulados más común sigue siendo el empleado por Einstein en su artículo original. Una declaración más matemática del principio de relatividad hecha más tarde por Einstein, que introduce el concepto de simplicidad no mencionado anteriormente es:

Principio especial de relatividad: Si se elige un sistema de coordenadas K de modo que, en relación con él, las leyes físicas sean válidas en su forma más simple, el mismo las leyes son válidas en relación con cualquier otro sistema de coordenadas K ′ que se muevan en traslación uniforme con respecto a K. [16]

Henri Poincaré proporcionó el marco matemático para la teoría de la relatividad al demostrar que las transformaciones de Lorentz son un subconjunto de su grupo de transformaciones de simetría de Poincaré. Más tarde, Einstein derivó estas transformaciones de sus axiomas.

Muchos de los artículos de Einstein presentan derivaciones de la transformación de Lorentz basadas en estos dos principios. [p. 7]

Marcos de referencia y movimiento relativo Editar

Los marcos de referencia juegan un papel crucial en la teoría de la relatividad. El término marco de referencia como se usa aquí es una perspectiva de observación en el espacio que no está experimentando ningún cambio en el movimiento (aceleración), desde la cual se puede medir una posición a lo largo de 3 ejes espaciales (es decir, en reposo o velocidad constante). Además, un marco de referencia tiene la capacidad de determinar mediciones de la hora de los eventos utilizando un "reloj" (cualquier dispositivo de referencia con periodicidad uniforme).

Un evento es un suceso al que se le puede asignar un momento y una ubicación únicos en el espacio en relación con un marco de referencia: es un "punto" en el espacio-tiempo. Dado que la velocidad de la luz es constante en relatividad independientemente del marco de referencia, los pulsos de luz se pueden usar para medir distancias sin ambigüedades y referirse a las horas en que los eventos ocurrieron en el reloj, aunque la luz tarda en llegar al reloj después del evento. ha ocurrido.

Por ejemplo, la explosión de un petardo puede considerarse un "evento". Podemos especificar completamente un evento por sus cuatro coordenadas espaciotemporales: el tiempo de ocurrencia y su ubicación espacial tridimensional definen un punto de referencia. Llamemos a este marco de referencia S.

En la teoría de la relatividad, a menudo queremos calcular las coordenadas de un evento a partir de diferentes marcos de referencia. Las ecuaciones que relacionan las mediciones realizadas en diferentes marcos se denominan ecuaciones de transformación.

Configuración estándar Editar

Para obtener una idea de cómo las coordenadas del espacio-tiempo medidas por los observadores en diferentes marcos de referencia se comparan entre sí, es útil trabajar con una configuración simplificada con marcos en un Configuración estándar. [17]: 107 Con cuidado, esto permite simplificar las matemáticas sin pérdida de generalidad en las conclusiones a las que se llega. En la figura 2-1, dos marcos de referencia galileanos (es decir, marcos convencionales de 3 espacios) se muestran en movimiento relativo. La trama S pertenece a un primer observador O, y la trama S ′ (pronunciada "S prima" o "S raya") pertenece a un segundo observador O ′.

  • los X, y, z los ejes del bastidor S están orientados paralelos a los respectivos ejes cebados del bastidor S '.
  • La trama S ′ se mueve, por simplicidad, en una sola dirección: la X-dirección del fotograma S con velocidad constante v medido en el cuadro S.
  • Los orígenes de los fotogramas S y S ′ coinciden cuando el tiempo t = 0 para el marco S y t′ = 0 para el marco S ′.

Dado que no existe un marco de referencia absoluto en la teoría de la relatividad, el concepto de "movimiento" no existe estrictamente, ya que todo puede estar en movimiento con respecto a algún otro marco de referencia. En cambio, se dice que dos fotogramas cualesquiera que se muevan a la misma velocidad en la misma dirección sean comoving. Por lo tanto, S y S' no son comoving.

Falta de un marco de referencia absoluto Editar

El principio de relatividad, que establece que las leyes físicas tienen la misma forma en cada sistema de referencia inercial, se remonta a Galileo y se incorporó a la física newtoniana. Sin embargo, a finales del siglo XIX, la existencia de ondas electromagnéticas llevó a algunos físicos a sugerir que el universo estaba lleno de una sustancia a la que llamaron "éter", que, postularon, actuaría como el medio a través del cual estas ondas, o vibraciones, propagado (en muchos aspectos similar a la forma en que el sonido se propaga a través del aire). Se pensaba que el éter era un marco de referencia absoluto con el que se podían medir todas las velocidades, y se podía considerar fijo e inmóvil en relación con la Tierra o algún otro punto de referencia fijo. Se suponía que el éter era lo suficientemente elástico para soportar ondas electromagnéticas, mientras que esas ondas podían interactuar con la materia, sin ofrecer resistencia a los cuerpos que lo atravesaban (su única propiedad era que permitía que las ondas electromagnéticas se propagaran). Los resultados de varios experimentos, incluido el experimento de Michelson-Morley en 1887 (posteriormente verificado con experimentos más precisos e innovadores), llevaron a la teoría de la relatividad especial, al demostrar que el éter no existía. [18] La solución de Einstein fue descartar la noción de un éter y el estado absoluto de reposo. En relatividad, cualquier sistema de referencia que se mueva con movimiento uniforme observará las mismas leyes de la física. En particular, la velocidad de la luz en el vacío siempre se mide para ser C, incluso cuando se miden mediante múltiples sistemas que se mueven a velocidades diferentes (pero constantes).

Relatividad sin el segundo postulado Editar

A partir del principio de relatividad solo sin asumir la constancia de la velocidad de la luz (es decir, usando la isotropía del espacio y la simetría implícita en el principio de relatividad especial) se puede demostrar que las transformaciones espaciotemporales entre marcos inerciales son euclidianas, galileanas. o Lorentzian. En el caso de Lorentz, se puede obtener una conservación de intervalo relativista y una cierta velocidad límite finita. Los experimentos sugieren que esta velocidad es la velocidad de la luz en el vacío. [p 8] [19]

Enfoques alternativos a la relatividad especial Editar

Einstein basó consistentemente la derivación de la invariancia de Lorentz (el núcleo esencial de la relatividad especial) en solo los dos principios básicos de la relatividad y la invariancia de la velocidad de la luz. El escribio:

La idea fundamental para la teoría de la relatividad especial es la siguiente: los supuestos de relatividad e invariancia de la velocidad de la luz son compatibles si se postulan relaciones de un nuevo tipo ("transformación de Lorentz") para la conversión de coordenadas y tiempos de eventos. El principio universal de la teoría especial de la relatividad está contenido en el postulado: Las leyes de la física son invariantes con respecto a las transformaciones de Lorentz (para la transición de un sistema inercial a cualquier otro sistema inercial elegido arbitrariamente). Este es un principio restrictivo de las leyes naturales. [p 5]

Así, muchos tratamientos modernos de la relatividad especial la basan en el postulado único de la covarianza de Lorentz universal o, de manera equivalente, en el postulado único del espacio-tiempo de Minkowski. [pág. 9] [pág. 10]

En lugar de considerar la covarianza universal de Lorentz como un principio derivado, este artículo lo considera el postulado fundamental de la relatividad especial. El enfoque tradicional de dos postulados de la relatividad especial se presenta en innumerables libros de texto universitarios y presentaciones populares. [20] Los libros de texto que comienzan con el postulado único del espacio-tiempo de Minkowski incluyen los de Taylor y Wheeler [21] y de Callahan. [22] Este es también el enfoque seguido por los artículos de Wikipedia sobre el espacio-tiempo y el diagrama de Minkowski.

Transformación de Lorentz y su inversa Editar

Defina un evento para que tenga coordenadas espaciotemporales (t,X,y,z) en el sistema S y (t′,X′,y′,z′) En un marco de referencia que se mueve a una velocidad v con respecto a ese marco, S′. Luego, la transformación de Lorentz especifica que estas coordenadas están relacionadas de la siguiente manera:

es el factor de Lorentz y C es la velocidad de la luz en el vacío y la velocidad v de S', relativo a S, es paralelo al X-eje. Por simplicidad, el y y z las coordenadas no se ven afectadas, solo las X y t las coordenadas se transforman. Estas transformaciones de Lorentz forman un grupo de asignaciones lineales de un parámetro, ese parámetro se llama rapidez.

Resolver las cuatro ecuaciones de transformación anteriores para las coordenadas no cebadas produce la transformación de Lorentz inversa:

Hacer cumplir esto inverso La transformación de Lorentz para que coincida con la transformación de Lorentz del sistema cebado al no cebado, muestra que el marco no cebado se mueve con la velocidad v ′ = −v, medido en el marco cebado.

No hay nada especial en el X-eje. La transformación se puede aplicar a la y- o zeje, o de hecho en cualquier dirección paralela al movimiento (que son deformados por el γ factor) y perpendicular, consulte el artículo Transformación de Lorentz para obtener más detalles.

Una cantidad invariante bajo las transformaciones de Lorentz se conoce como escalar de Lorentz.

Escribiendo la transformación de Lorentz y su inversa en términos de diferencias de coordenadas, donde un evento tiene coordenadas (X1, t1) y (X1, t1), otro evento tiene coordenadas (X2, t2) y (X2, t2), y las diferencias se definen como

Si tomamos diferenciales en lugar de tomar diferencias, obtenemos

Representación gráfica de la transformación de Lorentz Editar

Los diagramas de espacio-tiempo (diagramas de Minkowski) son una ayuda extremadamente útil para visualizar cómo se transforman las coordenadas entre diferentes marcos de referencia. Aunque no es tan fácil realizar cálculos exactos usándolos como invocar directamente las transformaciones de Lorentz, su principal poder es su capacidad para proporcionar una comprensión intuitiva de los resultados de un escenario relativista. [19]

Para dibujar un diagrama de espacio-tiempo, comience considerando dos marcos de referencia galileanos, S y S ', en configuración estándar, como se muestra en la figura 2-1. [19] [23]: 155–199

Mientras que la trama sin imprimación se dibuja con ejes de espacio y tiempo que se encuentran en ángulos rectos, la trama con imprimación se dibuja con ejes que se encuentran en ángulos agudos u obtusos. Esta asimetría se debe a las inevitables distorsiones en la forma en que las coordenadas del espacio-tiempo se mapean en un plano cartesiano, pero los marcos son en realidad equivalentes.

Las consecuencias de la relatividad especial se pueden derivar de las ecuaciones de transformación de Lorentz. [24] Estas transformaciones, y por tanto la relatividad especial, conducen a predicciones físicas diferentes a las de la mecánica newtoniana a todas las velocidades relativas, y son más pronunciadas cuando las velocidades relativas se vuelven comparables a la velocidad de la luz. La velocidad de la luz es mucho mayor que cualquier cosa con la que se encuentren la mayoría de los humanos que algunos de los efectos predichos por la relatividad son inicialmente contradictorios.

Intervalo invariante Editar

En la relatividad especial, sin embargo, el entrelazamiento de coordenadas espaciales y temporales genera el concepto de un intervalo invariante, denotado como Δ s 2 < displaystyle Delta s ^ <2>>:

El entretejido del espacio y el tiempo revoca los conceptos implícitamente asumidos de simultaneidad absoluta y sincronización a través de marcos no comodos.

La forma de Δ s 2, < displaystyle Delta s ^ <2>,> es la diferencia del lapso de tiempo al cuadrado y la distancia espacial al cuadrado, demuestra una discrepancia fundamental entre las distancias euclidiana y del espacio-tiempo. [nota 7] La ​​invariancia de este intervalo es una propiedad del general Transformada de Lorentz (también llamada transformación de Poincaré), lo que la convierte en una isometría del espacio-tiempo. La transformada de Lorentz general extiende la transformada de Lorentz estándar (que trata con traslaciones sin rotación, es decir, refuerzos de Lorentz, en la dirección x) con todas las demás traslaciones, reflejos y rotaciones entre cualquier marco inercial cartesiano. [28]: 33–34

En el análisis de escenarios simplificados, como los diagramas de espacio-tiempo, a menudo se emplea una forma de dimensionalidad reducida del intervalo invariante:

Demostrar que el intervalo es invariante es sencillo para el caso de dimensionalidad reducida y con marcos en configuración estándar: [19]

Al considerar el significado físico de Δ s 2 < displaystyle Delta s ^ <2>>, hay tres casos a tener en cuenta: [19] [29]: 25–39

  • Δs 2 y gt 0: En este caso, los dos eventos están separados por más tiempo que espacio y, por lo tanto, se dice que son como en el tiempo apartado. Esto implica que | Δ x / Δ t | & lt c, < displaystyle | Delta x / Delta t | & ltc,> y dada la transformación de Lorentz Δ x ′ = γ (Δ x - v Δ t), < displaystyle Delta x '= gamma ( Delta xv , Delta t),> es evidente que existe av < displaystyle v> menor que c < displaystyle c> para el cual Δ x ′ = 0 < displaystyle Delta x '= 0> (en particular , v = Δ x / Δ t < displaystyle v = Delta x / Delta t>). En otras palabras, dados dos eventos que están separados en el tiempo, es posible encontrar un marco en el que los dos eventos sucedan en el mismo lugar. En este marco, la separación en el tiempo, Δ s / c, < displaystyle Delta s / c,> se denomina momento apropiado.
  • Δs 2 y lt 0: En este caso, los dos eventos están separados por más espacio que tiempo y, por lo tanto, se dice que son espacial apartado. Esto implica que | Δ x / Δ t | & gt c, < displaystyle | Delta x / Delta t | & gtc,> y dada la transformación de Lorentz Δ t ′ = γ (Δ t - v Δ x / c 2), < displaystyle Delta t '= gamma ( Delta tv Delta x / c ^ <2>),> existe av < displaystyle v> menor que c < displaystyle c> para el cual Δ t ′ = 0 < displaystyle Delta t '= 0> (en particular, v = c 2 Δ t / Δ x < displaystyle v = c ^ <2> Delta t / Delta x>). En otras palabras, dados dos eventos que están separados como un espacio, es posible encontrar un marco en el que los dos eventos sucedan al mismo tiempo. En este marco, la separación en el espacio, - Δ s 2, < displaystyle < sqrt <- Delta s ^ <2> >>,> se llama distancia adecuada, o longitud adecuada. Para valores de v < displaystyle v> mayor que y menor que c 2 Δ t / Δ x, < displaystyle c ^ <2> Delta t / Delta x,> el signo de Δ t ′ < displaystyle Delta t '> cambia, lo que significa que el orden temporal de los eventos separados en forma de espacio cambia dependiendo del marco en el que se visualizan los eventos. Sin embargo, el orden temporal de los eventos separados en forma de tiempo es absoluto, ya que la única forma en que v < displaystyle v> podría ser mayor que c 2 Δ t / Δ x < displaystyle c ^ <2> Delta t / Delta x> sería si v & gt c.
  • Δs 2 = 0: En este caso, se dice que los dos eventos son como la luz apartado. Esto implica que | Δ x / Δ t | = c, < displaystyle | Delta x / Delta t | = c,> y esta relación es independiente del marco debido a la invariancia de s 2. < displaystyle s ^ <2>.> A partir de esto, observamos que la velocidad de la luz es c < displaystyle c> en cada marco inercial. En otras palabras, partiendo del supuesto de la covarianza de Lorentz universal, la velocidad constante de la luz es un resultado derivado, más que un postulado como en la formulación de dos postulados de la teoría especial.

Relatividad de la simultaneidad Editar

Considere dos eventos que ocurren en dos ubicaciones diferentes que ocurren simultáneamente en el marco de referencia de un observador inercial. Pueden ocurrir no simultáneamente en el marco de referencia de otro observador inercial (falta de simultaneidad absoluta).

De Ecuación 3 (la transformación de Lorentz hacia adelante en términos de diferencias de coordenadas)

Está claro que los dos eventos que son simultáneos en el marco S (satisfaciendo Δt = 0), no son necesariamente simultáneas en otro marco inercial S′ (Satisfaciendo Δt′ = 0). Solo si estos eventos son además co-locales en el marco S (satisfaciendo ΔX = 0), serán simultáneos en otro cuadro S′.

El efecto Sagnac puede considerarse una manifestación de la relatividad de la simultaneidad. [30] Dado que la relatividad de la simultaneidad es un efecto de primer orden en v < displaystyle v>, [19] los instrumentos basados ​​en el efecto Sagnac para su funcionamiento, como los giroscopios láser de anillo y los giroscopios de fibra óptica, son capaces de niveles extremos de sensibilidad . [p. 14]

Dilatación del tiempo Editar

El lapso de tiempo entre dos eventos no es invariante de un observador a otro, sino que depende de las velocidades relativas de los marcos de referencia de los observadores (por ejemplo, la paradoja de los gemelos que se refiere a un gemelo que vuela en una nave espacial que viaja cerca de la velocidad de la luz y regresa para descubrir que el hermano gemelo que no viaja ha envejecido mucho más, la paradoja es que a velocidad constante no podemos discernir cuál gemelo no viaja y cuál gemelo viaja).

Supongamos que un reloj está en reposo en el sistema no cebado. S. La ubicación del reloj en dos tics diferentes se caracteriza por ΔX = 0. Para encontrar la relación entre los tiempos entre estos tics medidos en ambos sistemas, Ecuación 3 se puede utilizar para encontrar:

Esto muestra que el tiempo (Δt′) Entre los dos tics como se ve en el cuadro en el que se mueve el reloj (S'), es más extenso que el tiempo (Δt) entre estos tics medidos en el resto del cuadro del reloj (S). La dilatación del tiempo explica una serie de fenómenos físicos, por ejemplo, la vida útil de los muones de alta velocidad creados por la colisión de los rayos cósmicos con partículas en la atmósfera exterior de la Tierra y que se mueven hacia la superficie es mayor que la vida útil de los muones que se mueven lentamente, creados y en descomposición en un laboratorio. [31]

Contracción de longitud Editar

Las dimensiones (por ejemplo, la longitud) de un objeto medidas por un observador pueden ser más pequeñas que los resultados de las mediciones del mismo objeto hechas por otro observador (por ejemplo, la paradoja de la escalera implica una escalera larga que viaja cerca de la velocidad de la luz y está contenida dentro de un garaje más pequeño).

De manera similar, suponga que una vara de medir est en reposo y alineada a lo largo de la X-eje en el sistema no cebado S. En este sistema, la longitud de esta varilla se escribe como ΔX. Para medir la longitud de esta varilla en el sistema S′, En el que se mueve la varilla, las distancias X′ Hasta los puntos finales de la varilla deben medirse simultáneamente en ese sistema S′. En otras palabras, la medición se caracteriza por Δt′ = 0, que se puede combinar con Ecuación 4 para encontrar la relación entre las longitudes ΔX y ΔX′:

Esto muestra que la longitud (ΔX′) De la varilla medida en el marco en el que se mueve (S'), es más corta que su longitud (ΔX) en su propio marco de descanso (S).

La dilatación del tiempo y la contracción de la longitud no son meras apariencias. La dilatación del tiempo está explícitamente relacionada con nuestra forma de medir intervalos de tiempo entre eventos que ocurren en el mismo lugar en un sistema de coordenadas dado (llamados eventos "co-locales"). Estos intervalos de tiempo (que pueden ser, y en realidad son, medidos experimentalmente por observadores relevantes) son diferente en otro sistema de coordenadas moviéndose con respecto al primero, a menos que los eventos, además de ser co-locales, también sean simultáneos. De manera similar, la contracción de la longitud se relaciona con nuestras distancias medidas entre eventos separados pero simultáneos en un sistema de coordenadas dado de elección. Si estos eventos no son co-locales, pero están separados por la distancia (espacio), no ocurren en el mismo distancia espacial unos de otros cuando se ven desde otro sistema de coordenadas en movimiento.

Transformación de Lorentz de velocidades Editar

Considere dos marcos S y S' en configuración estándar. Una partícula en S se mueve en la dirección x con el vector de velocidad u. < Displaystyle mathbf .> ¿Cuál es su velocidad u ′ < displaystyle mathbf > en marco S' ?

Sustituyendo expresiones para d x ′ < displaystyle dx '> y d t ′ < displaystyle dt'> de Ecuación 5 dentro Ecuación 8, seguido de sencillas manipulaciones matemáticas y sustitución hacia atrás de Ecuación 7 produce la transformación de Lorentz de la velocidad u < displaystyle u> a u ′ < displaystyle u '>:

La relación inversa se obtiene intercambiando los símbolos primados y no primarios y reemplazando v < displaystyle v> con - v.

Las transformaciones directas e inversas para este caso son:

Observamos los siguientes puntos:

  • Si un objeto (por ejemplo, un fotón) se moviera a la velocidad de la luz en un cuadro (es decir, tu = ±C o u ′ = ±C), entonces también se movería a la velocidad de la luz en cualquier otro marco, moviéndose a | v | & lt C .
  • La rapidez resultante de dos velocidades con magnitud menor que C es siempre una velocidad con magnitud menor que C.
  • Si ambos |tu| y |v| (y luego también |u ′| y |v ′|) son pequeñas con respecto a la velocidad de la luz (es decir, por ejemplo, | tu / C | ≪ 1), entonces las transformaciones galileanas intuitivas se recuperan de las ecuaciones de transformación para la relatividad especial
  • Adjuntar un marco a un fotón (montando un rayo de luz como considera Einstein) requiere un tratamiento especial de las transformaciones.

No hay nada especial en el X dirección en la configuración estándar. El formalismo anterior se aplica a cualquier dirección y tres direcciones ortogonales permiten tratar con todas las direcciones en el espacio descomponiendo los vectores de velocidad en sus componentes en estas direcciones. Consulte la fórmula de adición de velocidad para obtener más detalles.

Thomas rotación Editar

La composición de dos impulsos de Lorentz no colineales (es decir, dos transformaciones de Lorentz no colineales, ninguna de las cuales implica rotación) da como resultado una transformación de Lorentz que no es un impulso puro, sino la composición de un impulso y una rotación.

A diferencia de los efectos relativistas de segundo orden, como la contracción de la longitud o la dilatación del tiempo, este efecto se vuelve bastante significativo incluso a velocidades bastante bajas. Por ejemplo, esto se puede ver en el giro de partículas en movimiento, donde la precesión de Thomas es una corrección relativista que se aplica al giro de una partícula elemental o la rotación de un giroscopio macroscópico, relacionando la velocidad angular del giro de una partícula siguiendo un órbita curvilínea a la velocidad angular del movimiento orbital. [29]: 169-174

La rotación de Thomas proporciona la resolución a la conocida "paradoja del metro y el agujero". [p. 15] [29]: 98–99

Causalidad y prohibición de movimiento más rápido que la luz Editar

En la figura 4-3, el intervalo de tiempo entre los eventos A (la "causa") y B (el "efecto") es 'similar al tiempo', es decir, hay un marco de referencia en el que ocurren los eventos A y B en el misma ubicación en el espacio, separados solo por ocurrir en diferentes momentos. Si A precede a B en ese marco, entonces A precede a B en todos los marcos accesibles mediante una transformación de Lorentz. Es posible que la materia (o información) viaje (por debajo de la velocidad de la luz) desde la ubicación de A, comenzando en el momento de A, hasta la ubicación de B, llegando en el momento de B, por lo que puede haber una relación causal ( con A la causa y B el efecto).

El intervalo AC en el diagrama es 'similar al espacio', es decir, hay un marco de referencia en el que los eventos A y C ocurren simultáneamente, separados solo en el espacio. También hay cuadros en los que A precede a C (como se muestra) y cuadros en los que C precede a A. Sin embargo, no hay cuadros accesibles mediante una transformación de Lorentz, en los que los eventos A y C ocurren en la misma ubicación. Si fuera posible que existiera una relación de causa y efecto entre los eventos A y C, se producirían paradojas de causalidad.

Por ejemplo, si las señales pudieran enviarse más rápido que la luz, entonces las señales podrían enviarse al pasado del remitente (observador B en los diagramas). [32] [p. 16] Entonces se podría construir una variedad de paradojas causales.

Considere los diagramas de espacio-tiempo de la figura 4-4. A y B están parados junto a una vía de ferrocarril, cuando pasa un tren de alta velocidad, con C en el último vagón del tren y D en el vagón principal. Las líneas del mundo de A y B son verticales (Connecticut), distinguiendo la posición estacionaria de estos observadores en el suelo, mientras que las líneas del mundo de C y D están inclinadas hacia adelante (Connecticut'), reflejando el movimiento rápido de los observadores C y D estacionados en su tren, como se observa desde el suelo.

  1. Figura 4-4a. El evento de "B pasando un mensaje a D", cuando pasa el automóvil principal, está en el origen de la trama de D. D envía el mensaje a lo largo del tren a C en el vagón trasero, utilizando un "comunicador instantáneo" ficticio. La línea de mundo de este mensaje es la flecha roja gruesa a lo largo del eje - x ′ < displaystyle -x '>, que es una línea de simultaneidad en los marcos cebados de C y D. En el marco de tierra (no cebado) llega la señal más temprano de lo que fue enviado.
  2. Figura 4-4b. El evento de "C pasando el mensaje a A", que está de pie junto a las vías del tren, está en el origen de sus tramas. Ahora A envía el mensaje por las vías a B a través de un "comunicador instantáneo". La línea de mundo de este mensaje es la flecha azul gruesa, a lo largo del eje + x < displaystyle + x>, que es una línea de simultaneidad para los fotogramas de A y B. Como se ve en el diagrama de espacio-tiempo, B recibirá el mensaje antes haberlo enviado, una violación de la causalidad. [33]

Por lo tanto, si la causalidad debe ser preservada, una de las consecuencias de la relatividad especial es que ninguna señal de información u objeto material puede viajar más rápido que la luz en el vacío.

Esto no quiere decir que todos más rápido que las velocidades de la luz son imposibles. Se pueden describir varias situaciones triviales en las que algunas "cosas" (no la materia o la energía reales) se mueven más rápido que la luz. [35] Por ejemplo, el lugar donde el haz de una luz de búsqueda incide en el fondo de una nube puede moverse más rápido que la luz cuando la luz de búsqueda se gira rápidamente (aunque esto no viola la causalidad ni ningún otro fenómeno relativista). [36] [37]

Efectos de arrastre Editar

En 1850, Hippolyte Fizeau y Léon Foucault establecieron independientemente que la luz viaja más lentamente en el agua que en el aire, validando así una predicción de la teoría ondulatoria de la luz de Fresnel e invalidando la predicción correspondiente de la teoría corpuscular de Newton. [38] La velocidad de la luz se midió en aguas tranquilas. ¿Cuál sería la velocidad de la luz en el agua que fluye?

En 1851, Fizeau llevó a cabo un experimento para responder a esta pregunta, cuya representación simplificada se ilustra en la figura 5-1. Un rayo de luz es dividido por un divisor de rayos, y los rayos divididos pasan en direcciones opuestas a través de un tubo de agua que fluye. Se recombinan para formar franjas de interferencia, lo que indica una diferencia en la longitud del camino óptico, que un observador puede ver. El experimento demostró que el arrastre de la luz por el agua que fluye provocó un desplazamiento de las franjas, mostrando que el movimiento del agua había afectado la velocidad de la luz.

Según las teorías imperantes en ese momento, la luz que viaja a través de un medio en movimiento sería una simple suma de su velocidad. mediante el medio más la velocidad de la médium. Contrariamente a lo esperado, Fizeau descubrió que aunque el agua parecía arrastrar la luz, la magnitud del arrastre era mucho menor de lo esperado. Si u ′ = c / n < displaystyle u '= c / n> es la velocidad de la luz en aguas tranquilas, y v < displaystyle v> es la velocidad del agua, y u ± < displaystyle u _ < pm >> es la velocidad de la luz en el agua en el marco del laboratorio con el flujo de agua sumando o restando de la velocidad de la luz, entonces

Los resultados de Fizeau, aunque consistentes con la hipótesis anterior de Fresnel de arrastre parcial del éter, fueron extremadamente desconcertantes para los físicos de la época. Entre otras cosas, la presencia de un término de índice de refracción significaba que, dado que n < displaystyle n> depende de la longitud de onda, el éter debe ser capaz de sostener diferentes movimientos al mismo tiempo. [nota 8] Se propuso una variedad de explicaciones teóricas para explicar el coeficiente de arrastre de Fresnel que estaban completamente en desacuerdo entre sí. Incluso antes del experimento de Michelson-Morley, los resultados experimentales de Fizeau estaban entre una serie de observaciones que crearon una situación crítica para explicar la óptica de los cuerpos en movimiento. [39]

Desde el punto de vista de la relatividad especial, el resultado de Fizeau no es más que una aproximación a Ecuación 10, la fórmula relativista para la composición de velocidades. [28]

Aberración relativista de la luz Editar

Debido a la velocidad finita de la luz, si los movimientos relativos de una fuente y un receptor incluyen un componente transversal, entonces la dirección desde la cual llega la luz al receptor se desplazará de la posición geométrica en el espacio de la fuente con respecto al receptor. El cálculo clásico del desplazamiento toma dos formas y hace diferentes predicciones según si el receptor, la fuente o ambos están en movimiento con respecto al medio. (1) Si el receptor está en movimiento, el desplazamiento sería consecuencia de la aberración de la luz. El ángulo de incidencia del haz con respecto al receptor se podría calcular a partir de la suma vectorial de los movimientos del receptor y la velocidad de la luz incidente. [40] (2) Si la fuente está en movimiento, el desplazamiento sería la consecuencia de la corrección del tiempo de luz. El desplazamiento de la posición aparente de la fuente desde su posición geométrica sería el resultado del movimiento de la fuente durante el tiempo que tarda su luz en llegar al receptor. [41]

La explicación clásica falló la prueba experimental. Dado que el ángulo de aberración depende de la relación entre la velocidad del receptor y la velocidad de la luz incidente, el paso de la luz incidente a través de un medio refractivo debería cambiar el ángulo de aberración. En 1810, Arago usó este fenómeno esperado en un intento fallido de medir la velocidad de la luz, [42] y en 1870, George Airy probó la hipótesis usando un telescopio lleno de agua, encontrando que, contra lo esperado, la aberración medida era idéntica a la aberración medida con un telescopio lleno de aire. [43] Un "engorroso" intento de explicar estos resultados utilizó la hipótesis de un arrastre de éter parcial, [44] pero fue incompatible con los resultados del experimento de Michelson-Morley, que aparentemente exigía completo éter-arrastre. [45]

Suponiendo marcos inerciales, la expresión relativista de la aberración de la luz es aplicable tanto a los casos en movimiento del receptor como a los de la fuente en movimiento. Se han publicado diversas fórmulas trigonométricamente equivalentes. Expresadas en términos de las variables de la figura 5-2, estas incluyen [28]: 57-60

Efecto Doppler relativista Editar

Efecto Doppler longitudinal relativista Editar

El efecto Doppler clásico depende de si la fuente, el receptor o ambos están en movimiento con respecto al medio. El efecto Doppler relativista es independiente de cualquier medio. Sin embargo, el desplazamiento Doppler relativista para el caso longitudinal, con la fuente y el receptor moviéndose directamente hacia o alejándose el uno del otro, puede derivarse como si fuera el fenómeno clásico, pero modificado por la adición de un término de dilatación del tiempo, y ese es el tratamiento. descrito aquí. [46] [47]

Para la luz, y con el receptor moviéndose a velocidades relativistas, los relojes del receptor están dilatados en el tiempo en relación con los relojes de la fuente. El receptor medirá la frecuencia recibida para ser

Se obtiene una expresión idéntica para el desplazamiento Doppler relativista al realizar el análisis en el marco de referencia del receptor con una fuente en movimiento. [48] ​​[19]

Efecto Doppler transversal Editar

El efecto Doppler transversal es una de las principales predicciones novedosas de la teoría especial de la relatividad.

Clásicamente, uno podría esperar que si la fuente y el receptor se mueven transversalmente entre sí sin componente longitudinal en sus movimientos relativos, no debería haber un desplazamiento Doppler en la luz que llega al receptor.

La relatividad especial predice lo contrario. La figura 5-3 ilustra dos variantes comunes de este escenario. Ambas variantes se pueden analizar utilizando argumentos simples de dilatación del tiempo. [19] En la figura 5-3a, el receptor observa que la luz de la fuente está desplazada hacia el azul por un factor de γ < displaystyle gamma>. En la figura 5-3b, la luz se desplaza al rojo por el mismo factor.

Medición versus apariencia visual Editar

La dilatación del tiempo y la contracción de la longitud no son ilusiones ópticas, sino efectos genuinos. Las mediciones de estos efectos no son un artefacto del desplazamiento Doppler, ni son el resultado de no tener en cuenta el tiempo que tarda la luz en viajar de un evento a un observador.

Los científicos hacen una distinción fundamental entre medición o observación por un lado, versus apariencia visual, o que uno ve. La forma medida de un objeto es una instantánea hipotética de todos los puntos del objeto tal como existen en un solo momento en el tiempo. Sin embargo, la apariencia visual de un objeto se ve afectada por los diferentes períodos de tiempo que tarda la luz en viajar desde diferentes puntos del objeto hasta el ojo.

Durante muchos años, la distinción entre los dos no se había apreciado en general, y en general se había pensado que un objeto de longitud contraída que pasa por un observador en realidad sería visto como longitud contraída. En 1959, James Terrell y Roger Penrose señalaron de forma independiente que los efectos de retardo de tiempo diferencial en las señales que llegan al observador desde las diferentes partes de un objeto en movimiento dan como resultado que la apariencia visual de un objeto en movimiento rápido sea bastante diferente de su forma medida. Por ejemplo, un objeto que se aleja aparecer contraído, un objeto que se aproximaba aparecer alargado, y un objeto que pasa tendría una apariencia sesgada que se ha comparado con una rotación. [p 19] [p 20] [49] [50] Una esfera en movimiento conserva la apariencia de una esfera, aunque las imágenes en la superficie de la esfera aparecerán distorsionadas. [51]

La figura 5-4 ilustra un cubo visto desde una distancia de cuatro veces la longitud de sus lados. A altas velocidades, los lados del cubo que son perpendiculares a la dirección del movimiento aparecen de forma hiperbólica. En realidad, el cubo no está girado. Más bien, la luz de la parte posterior del cubo tarda más en llegar a los ojos en comparación con la luz del frente, tiempo durante el cual el cubo se ha movido hacia la derecha. Esta ilusión ha llegado a conocerse como Rotación de Terrell o la Efecto Terrell-Penrose. [nota 9]

Otro ejemplo en el que la apariencia visual está en desacuerdo con la medición proviene de la observación del movimiento superluminal aparente en varias radiogalaxias, objetos BL Lac, cuásares y otros objetos astronómicos que expulsan chorros de materia a velocidad relativista en ángulos estrechos con respecto al espectador. Se produce una aparente ilusión óptica que da la apariencia de un viaje más rápido que la luz. [52] [53] [54] En la Fig. 5-5, la galaxia M87 arroja un chorro de partículas subatómicas a alta velocidad casi directamente hacia nosotros, pero la rotación de Penrose-Terrell hace que el chorro parezca moverse lateralmente en el mismo de manera que la apariencia del cubo de la figura 5-4 se ha estirado. [55]

Sección Consecuencias derivadas de la transformación de Lorentz se ocupa estrictamente de la cinemática, el estudio del movimiento de puntos, cuerpos y sistemas de cuerpos sin considerar las fuerzas que causan el movimiento. Esta sección discute masas, fuerzas, energía, etc., y como tal requiere la consideración de efectos físicos más allá de los abarcados por la transformación de Lorentz en sí.

Equivalencia de masa y energía Editar

A medida que la velocidad de un objeto se acerca a la velocidad de la luz desde el punto de vista de un observador, su masa relativista aumenta, lo que hace que sea cada vez más difícil acelerarlo desde el marco de referencia del observador.

El contenido de energía de un objeto en reposo con masa. metro es igual a mc 2. La conservación de energía implica que, en cualquier reacción, una disminución de la suma de las masas de partículas debe ir acompañada de un aumento de las energías cinéticas de las partículas después de la reacción. De manera similar, la masa de un objeto se puede aumentar absorbiendo energías cinéticas.

Además de los artículos mencionados anteriormente, que dan derivaciones de la transformación de Lorentz y describen los fundamentos de la relatividad especial, Einstein también escribió al menos cuatro artículos que brindan argumentos heurísticos para la equivalencia (y transmutabilidad) de masa y energía, para mi = mc 2 .

La equivalencia masa-energía es una consecuencia de la relatividad especial. La energía y el momento, que están separados en la mecánica newtoniana, forman un cuatro vector en la relatividad, y esto relaciona el componente de tiempo (la energía) con los componentes del espacio (el momento) de una manera no trivial. Para un objeto en reposo, el cuatro-vector energía-momento es (mi/C, 0, 0, 0): tiene una componente de tiempo que es la energía y tres componentes de espacio que son cero. Al cambiar los marcos con una transformación de Lorentz en la dirección x con un valor pequeño de la velocidad v, el impulso de energía de cuatro vectores se convierte en (mi/C, Ev/C 2, 0, 0). El momento es igual a la energía multiplicada por la velocidad dividida por C 2. Como tal, la masa newtoniana de un objeto, que es la relación entre el momento y la velocidad para velocidades lentas, es igual a mi/C 2 .

La energía y el momento son propiedades de la materia y la radiación, y es imposible deducir que forman un cuatro vector solo a partir de los dos postulados básicos de la relatividad especial por sí mismos, porque estos no hablan de materia o radiación, solo hablan. sobre el espacio y el tiempo. Por tanto, la derivación requiere un razonamiento físico adicional. En su artículo de 1905, Einstein utilizó los principios adicionales que la mecánica newtoniana debería mantener para velocidades lentas, de modo que hay un escalar de energía y un momento de tres vectores a velocidades lentas, y que la ley de conservación de la energía y el momento es exactamente cierta en relatividad. . Además, asumió que la energía de la luz es transformada por el mismo factor de desplazamiento Doppler que su frecuencia, que previamente había demostrado que era cierto basándose en las ecuaciones de Maxwell. [p 1] El primero de los artículos de Einstein sobre este tema fue "¿Depende la inercia de un cuerpo de su contenido energético?" en 1905. [p 21] Aunque el argumento de Einstein en este artículo es aceptado casi universalmente por los físicos como correcto, incluso evidente por sí mismo, muchos autores a lo largo de los años han sugerido que es incorrecto. [56] Otros autores sugieren que el argumento fue simplemente inconcluso porque se basó en algunos supuestos implícitos. [57]

Einstein reconoció la controversia sobre su derivación en su artículo de encuesta de 1907 sobre la relatividad especial. Allí señala que es problemático confiar en las ecuaciones de Maxwell para el argumento heurístico masa-energía. El argumento de su artículo de 1905 puede llevarse a cabo con la emisión de cualquier partícula sin masa, pero las ecuaciones de Maxwell se utilizan implícitamente para hacer evidente que la emisión de luz en particular sólo se puede lograr haciendo trabajo. Para emitir ondas electromagnéticas, todo lo que tienes que hacer es agitar una partícula cargada, y esto claramente está funcionando, de modo que la emisión sea de energía. [p 22] [nota 10]

¿Qué tan lejos se puede viajar de la Tierra? Editar

Dado que no se puede viajar más rápido que la luz, se podría concluir que un ser humano nunca puede viajar más lejos de la Tierra que 40 años luz si el viajero está activo entre las edades de 20 y 60 años. llegar a más de los pocos sistemas solares que existen dentro del límite de 20 a 40 años luz de la tierra. Pero esa sería una conclusión errónea. Debido a la dilatación del tiempo, una nave espacial hipotética puede viajar miles de años luz durante los 40 años activos del piloto. Si se pudiera construir una nave espacial que acelerara a 1 constantegramo, después de poco menos de un año, viajará casi a la velocidad de la luz vista desde la Tierra. Esto es descrito por:

dónde v(t) es la velocidad a la vez t, a es la aceleración de 1gramo y t es el tiempo medido por las personas en la Tierra. [p 23] Por lo tanto, después de un año de acelerar a 9,81 m / s 2, la nave espacial viajará a v = 0.77C relativo a la Tierra. La dilatación del tiempo aumentará la vida útil de los viajeros como se ve desde el marco de referencia de la Tierra a 2,7 años, pero su vida útil medida por un reloj que viaja con él no cambiará. Durante su viaje, las personas en la Tierra experimentarán más tiempo que él. Un viaje de ida y vuelta de 5 años para él le llevará 6,5 años terrestres y cubrirá una distancia de más de 6 años luz. Un viaje de ida y vuelta de 20 años para él (5 años acelerando, 5 desacelerando, dos veces cada uno) lo llevará de regreso a la Tierra después de haber viajado durante 335 años terrestres y una distancia de 331 años luz. [58] Un viaje completo de 40 años a 1gramo aparecerá en la Tierra para durar 58.000 años y cubrir una distancia de 55.000 años luz. Un viaje de 40 años a 1,1gramo tomará 148.000 años terrestres y cubrirá unos 140.000 años luz. Un viaje de ida de 28 años (14 años acelerando, 14 desacelerando según lo medido con el reloj del astronauta) en 1gramo la aceleración podría llegar a 2.000.000 de años luz para la galaxia de Andrómeda. [58] Esta misma dilatación temporal es la razón por la que un muón viaja cerca de C se observa que viaja mucho más lejos que C veces su vida media (en reposo). [59]

La investigación teórica en electromagnetismo clásico condujo al descubrimiento de la propagación de ondas. Las ecuaciones que generalizan los efectos electromagnéticos encontraron que la velocidad de propagación finita del mi y B Los campos requerían ciertos comportamientos en partículas cargadas. El estudio general de cargas en movimiento forma el potencial de Liénard-Wiechert, que es un paso hacia la relatividad especial.

La transformación de Lorentz del campo eléctrico de una carga en movimiento en el marco de referencia de un observador inmóvil da como resultado la aparición de un término matemático comúnmente llamado campo magnético. Por el contrario, el magnético El campo generado por una carga en movimiento desaparece y se convierte en un electrostático campo en un marco de referencia comoving. Por tanto, las ecuaciones de Maxwell son simplemente un ajuste empírico a efectos relativistas especiales en un modelo clásico del Universo. Como los campos eléctricos y magnéticos dependen del marco de referencia y, por lo tanto, están entrelazados, se habla de electromagnético los campos. La relatividad especial proporciona las reglas de transformación de cómo un campo electromagnético en un marco inercial aparece en otro marco inercial.

Las ecuaciones de Maxwell en la forma 3D ya son consistentes con el contenido físico de la relatividad especial, aunque son más fáciles de manipular en una forma manifiestamente covariante, es decir, en el lenguaje del cálculo tensorial. [60]

Especial la relatividad se puede combinar con la mecánica cuántica para formar la mecánica cuántica relativista y la electrodinámica cuántica. Cómo general la relatividad y la mecánica cuántica pueden unificarse es uno de los problemas no resueltos de la física de la gravedad cuántica y una "teoría del todo", que requiere una unificación que incluya también la relatividad general, son áreas activas y en curso de la investigación teórica.

El primer modelo atómico de Bohr-Sommerfeld explicó la estructura fina de los átomos de metales alcalinos utilizando tanto la relatividad especial como el conocimiento preliminar de la mecánica cuántica de la época. [61]

En 1928, Paul Dirac construyó una influyente ecuación de onda relativista, ahora conocida como la ecuación de Dirac en su honor, [p 24] que es totalmente compatible tanto con la relatividad especial como con la versión final de la teoría cuántica existente después de 1926. Esta ecuación no solo describir el momento angular intrínseco de los electrones llamado girar, también condujo a la predicción de la antipartícula del electrón (el positrón), [p 24] [p 25] y la estructura fina sólo podría explicarse completamente con la relatividad especial. Fue la primera fundación de mecánica cuántica relativista.

Por otro lado, la existencia de antipartículas lleva a la conclusión de que la mecánica cuántica relativista no es suficiente para una teoría más precisa y completa de las interacciones de las partículas. En cambio, una teoría de partículas interpretadas como campos cuantificados, llamada teoría cuántica de campos, se hace necesaria en la que se puedan crear y destruir partículas a lo largo del espacio y el tiempo.

La relatividad especial en su espacio-tiempo de Minkowski es precisa solo cuando el valor absoluto del potencial gravitacional es mucho menor que C 2 en la región de interés. [62] En un campo gravitacional fuerte, se debe usar la relatividad general. La relatividad general se convierte en relatividad especial en el límite de un campo débil. A escalas muy pequeñas, como en la longitud de Planck e inferiores, se deben tener en cuenta los efectos cuánticos que dan como resultado la gravedad cuántica. Sin embargo, a escalas macroscópicas y en ausencia de campos gravitacionales fuertes, la relatividad especial se prueba experimentalmente con un grado de precisión extremadamente alto (10 -20) [63] y, por lo tanto, es aceptada por la comunidad física. Los resultados experimentales que parecen contradecirlo no son reproducibles y, por lo tanto, se cree ampliamente que se deben a errores experimentales.

La relatividad especial es matemáticamente autoconsistente y es una parte orgánica de todas las teorías físicas modernas, sobre todo la teoría cuántica de campos, la teoría de cuerdas y la relatividad general (en el caso límite de campos gravitacionales insignificantes).

La mecánica newtoniana se sigue matemáticamente de la relatividad especial a velocidades pequeñas (en comparación con la velocidad de la luz), por lo que la mecánica newtoniana puede considerarse como una relatividad especial de los cuerpos de movimiento lento. Consulte la mecánica clásica para una discusión más detallada.

Varios experimentos anteriores al artículo de 1905 de Einstein ahora se interpretan como evidencia de la relatividad. De estos, se sabe que Einstein estaba al tanto del experimento de Fizeau antes de 1905, [64] y los historiadores han concluido que Einstein estaba al menos al tanto del experimento de Michelson-Morley ya en 1899 a pesar de las afirmaciones que hizo en sus últimos años de que no jugaba papel en su desarrollo de la teoría. [14]

  • El experimento de Fizeau (1851, repetido por Michelson y Morley en 1886) midió la velocidad de la luz en medios en movimiento, con resultados que son consistentes con la suma relativista de velocidades colineales.
  • El famoso experimento de Michelson-Morley (1881, 1887) dio más apoyo al postulado de que no era posible detectar una velocidad de referencia absoluta. Debe afirmarse aquí que, contrariamente a muchas afirmaciones alternativas, dice poco sobre la invariancia de la velocidad de la luz con respecto a la fuente y la velocidad del observador, ya que tanto la fuente como el observador viajaban juntos a la misma velocidad en todo momento.
  • El experimento de Trouton-Noble (1903) mostró que el par en un capacitor es independiente de la posición y del marco de referencia inercial.
  • Los Experimentos de Rayleigh y Brace (1902, 1904) mostraron que la contracción de la longitud no conduce a la birrefringencia para un observador que se mueve conjuntamente, de acuerdo con el principio de relatividad.

Los aceleradores de partículas aceleran y miden rutinariamente las propiedades de las partículas que se mueven cerca de la velocidad de la luz, donde su comportamiento es completamente consistente con la teoría de la relatividad e inconsistente con la mecánica newtoniana anterior. Estas máquinas simplemente no funcionarían si no estuvieran diseñadas de acuerdo con principios relativistas. Además, se ha realizado un número considerable de experimentos modernos para probar la relatividad especial. Algunos ejemplos:

    - probar la velocidad límite de las partículas - probar el efecto Doppler relativista y la dilatación del tiempo - los efectos relativistas en la vida media de una partícula que se mueve rápidamente - la dilatación del tiempo de acuerdo con las transformaciones de Lorentz - probar la isotropía del espacio y la masa - varias pruebas modernas
  • Los experimentos para probar la teoría de las emisiones demostraron que la velocidad de la luz es independiente de la velocidad del emisor.
  • Experimentos para probar la hipótesis del arrastre de éter: sin "obstrucción del flujo de éter".

Geometría del espacio-tiempo Editar

Comparación entre el espacio plano euclidiano y el espacio de Minkowski Editar

La relatividad especial utiliza un espacio de Minkowski de 4 dimensiones "plano", un ejemplo de un espacio-tiempo. El espacio-tiempo de Minkowski parece ser muy similar al espacio euclidiano tridimensional estándar, pero hay una diferencia crucial con respecto al tiempo.

En el espacio 3D, el diferencial de distancia (elemento de línea) ds es definido por

dónde DX = (dx1, dx2, dx3) son los diferenciales de las tres dimensiones espaciales. En la geometría de Minkowski, hay una dimensión extra con coordenadas X 0 derivado del tiempo, de modo que el diferencial de distancia cumpla

dónde DX = (dX0, dX1, dX2, dX3) son los diferenciales de las cuatro dimensiones del espacio-tiempo. Esto sugiere una profunda comprensión teórica: la relatividad especial es simplemente una simetría rotacional de nuestro espacio-tiempo, análoga a la simetría rotacional del espacio euclidiano (ver figura 10-1). [66] Así como el espacio euclidiano usa una métrica euclidiana, el espacio-tiempo usa una métrica de Minkowski. Básicamente, la relatividad especial se puede afirmar como la invariancia de cualquier intervalo de espacio-tiempo (que es la distancia 4D entre dos eventos cualesquiera) cuando se ve desde cualquier sistema de referencia inercial. Todas las ecuaciones y efectos de la relatividad especial pueden derivarse de esta simetría rotacional (el grupo de Poincaré) del espacio-tiempo de Minkowski.

La forma real de ds anterior depende de la métrica y de las opciones para el X 0 coordenada. Para que la coordenada de tiempo se parezca a las coordenadas espaciales, se puede tratar como imaginaria: X0 = tic (esto se llama rotación de Wick). Según Misner, Thorne y Wheeler (1971, §2.3), en última instancia, la comprensión más profunda de la relatividad general y especial vendrá del estudio de la métrica de Minkowski (descrita a continuación) y de tomar X 0 = Connecticut , en lugar de una métrica euclidiana "disfrazada" con tic como la coordenada de tiempo.

Algunos autores utilizan X 0 = t , con factores de C en otro lugar para compensar, por ejemplo, las coordenadas espaciales se dividen por C o factores de C ± 2 se incluyen en el tensor métrico. [67] Estas numerosas convenciones pueden sustituirse mediante el uso de unidades naturales donde C = 1. Entonces el espacio y el tiempo tienen unidades equivalentes, y no hay factores de C aparecer en cualquier lugar.

Espacio-tiempo 3D Editar

Si reducimos las dimensiones espaciales a 2, de modo que podamos representar la física en un espacio 3D

vemos que las geodésicas nulas se encuentran a lo largo de un cono dual (ver Fig. 10-2) definido por la ecuación

que es la ecuación de un círculo de radio c dt.

Espacio-tiempo 4D editar

Si ampliamos esto a tres dimensiones espaciales, las geodésicas nulas son el cono de 4 dimensiones:

Como se ilustra en la figura 10-3, las geodésicas nulas se pueden visualizar como un conjunto de esferas concéntricas continuas con radios = c dt.

Este doble cono nulo representa la "línea de visión" de un punto en el espacio. Es decir, cuando miramos las estrellas y decimos "La luz de esa estrella que estoy recibiendo tiene X años", estamos mirando hacia abajo en esta línea de visión: una geodésica nula. Estamos viendo un evento a una distancia d = x 1 2 + x 2 2 + x 3 2 < displaystyle d = < sqrt ^ <2> + x_ <2> ^ <2> + x_ <3> ^ <2> >>> lejos y una vez corriente continua en el pasado. Por esta razón, el cono dual nulo también se conoce como "cono de luz". (El punto en la parte inferior izquierda de la Fig. 10-2 representa la estrella, el origen representa al observador y la línea representa la "línea de visión" geodésica nula).

El cono en el -t región es la información que el punto está 'recibiendo', mientras que el cono en el +t sección es la información que el punto está 'enviando'.

La geometría del espacio de Minkowski se puede representar utilizando diagramas de Minkowski, que también son útiles para comprender muchos de los experimentos mentales de la relatividad especial.

Tenga en cuenta que, en el espacio-tiempo 4d, el concepto de centro de masa se vuelve más complicado, consulte Centro de masa (relativista).

Física en el espacio-tiempo Editar

Transformaciones de cantidades físicas entre marcos de referencia Editar

Arriba, la transformación de Lorentz para la coordenada temporal y las tres coordenadas espaciales ilustra que están entrelazadas. Esto es cierto de manera más general: ciertos pares de cantidades "temporales" y "espaciales" se combinan naturalmente en pie de igualdad bajo la misma transformación de Lorentz.

La transformación de Lorentz en la configuración estándar anterior, es decir, para un impulso en el X-dirección, se puede refundir en forma de matriz de la siguiente manera:

En la mecánica newtoniana, las cantidades que tienen magnitud y dirección se describen matemáticamente como vectores 3d en el espacio euclidiano y, en general, están parametrizadas por el tiempo. En la relatividad especial, esta noción se amplía agregando la cantidad apropiada similar a un tiempo a una cantidad vectorial espacial, y tenemos vectores 4d, o "cuatro vectores", en el espacio-tiempo de Minkowski. Los componentes de los vectores se escriben utilizando la notación de índice tensorial, ya que esto tiene numerosas ventajas. La notación deja en claro que las ecuaciones son manifiestamente covariantes en el grupo de Poincaré, evitando así los tediosos cálculos para comprobar este hecho. Al construir tales ecuaciones, a menudo encontramos que las ecuaciones que antes se pensaba que no estaban relacionadas, de hecho, están estrechamente conectadas y forman parte de la misma ecuación tensorial. Reconocer otras cantidades físicas como tensores simplifica sus leyes de transformación. En todas partes, los índices superiores (superíndices) son índices contravariantes en lugar de exponentes, excepto cuando indican un cuadrado (esto debe quedar claro en el contexto), y los índices inferiores (subíndices) son índices covariantes. Por simplicidad y coherencia con las ecuaciones anteriores, se utilizarán coordenadas cartesianas.

El ejemplo más simple de un cuatro-vector es la posición de un evento en el espacio-tiempo, que constituye un componente temporal. Connecticut y componente espacial X = (X, y, z), en una posición contravariante cuatro vectores con componentes:

donde definimos X 0 = Connecticut de modo que la coordenada de tiempo tenga la misma dimensión de distancia que las otras dimensiones espaciales, de modo que el espacio y el tiempo se traten por igual. [68] [69] [70] Ahora la transformación de las componentes contravariantes del vector de posición 4 se puede escribir de forma compacta como:

donde el factor de Lorentz es:

La cuatro aceleración es la derivada de tiempo adecuada de la 4 velocidades:

Las reglas de transformación para Tres-Las velocidades y aceleraciones dimensionales son muy incómodas incluso por encima de la configuración estándar, las ecuaciones de velocidad son bastante complicadas debido a su no linealidad. Por otro lado, la transformación de cuatro-velocidad y cuatro-aceleraciones son más simples mediante la matriz de transformación de Lorentz.

El cuatro gradiente de un campo escalar φ se transforma de forma covariable en lugar de contravariable:

que es la transposición de:

solo en coordenadas cartesianas.Es la derivada covariante la que se transforma en covarianza manifiesta, en coordenadas cartesianas esto pasa a reducirse a las derivadas parciales, pero no en otras coordenadas.

De manera más general, la cocomponentes variantes de una transformada de 4 vectores de acuerdo con el inverso Transformación de Lorentz:

Los postulados de la relatividad especial restringen la forma exacta que toman las matrices de transformación de Lorentz.

De manera más general, la mayoría de las cantidades físicas se describen mejor como (componentes de) tensores. Entonces, para transformar de un marco a otro, usamos la conocida ley de transformación del tensor [71]

Un ejemplo de un tensor antisimétrico de segundo orden de cuatro dimensiones es el momento angular relativista, que tiene seis componentes: tres son el momento angular clásico y los otros tres están relacionados con el impulso del centro de masa del sistema. La derivada del momento angular relativista con respecto al tiempo propio es el par relativista, también tensor antisimétrico de segundo orden.

El tensor de campo electromagnético es otro campo tensor antisimétrico de segundo orden, con seis componentes: tres para el campo eléctrico y otros tres para el campo magnético. También existe el tensor de tensión-energía para el campo electromagnético, a saber, el tensor de tensión-energía electromagnética.

Editar métrica

El tensor métrico permite definir el producto interno de dos vectores, lo que a su vez permite asignar una magnitud al vector. Dada la naturaleza tetradimensional del espacio-tiempo, la métrica de Minkowski η tiene componentes (válidos con coordenadas adecuadamente elegidas) que se pueden organizar en una matriz de 4 × 4:

El grupo de Poincaré es el grupo más general de transformaciones que conserva la métrica de Minkowski:

y esta es la simetría física subyacente a la relatividad especial.

La métrica se puede utilizar para subir y bajar índices en vectores y tensores. Las invariantes se pueden construir usando la métrica, el producto interno de un 4-vector T con otro 4-vector S es:

Invariante significa que toma el mismo valor en todos los marcos inerciales, porque es un escalar (tensor de rango 0), por lo que no aparece Λ en su transformación trivial. La magnitud del 4-vector T es la raíz cuadrada positiva del producto interno consigo mismo:

Se puede extender esta idea a tensores de orden superior, para un tensor de segundo orden podemos formar las invariantes:

de manera similar para tensores de orden superior. Las expresiones invariantes, particularmente los productos internos de 4 vectores consigo mismos, proporcionan ecuaciones que son útiles para los cálculos, porque no es necesario realizar transformaciones de Lorentz para determinar las invariantes.

Cinemática relativista e invariancia Editar

Los diferenciales de coordenadas también se transforman de manera contravariable:

por lo que la longitud al cuadrado de la diferencial del cuatro-vector de posición dX μ construido usando

es una invariante. Observe que cuando el elemento de línea DX 2 es negativo que √ -DX 2 es el diferencial del tiempo adecuado, mientras que cuando DX 2 es positivo, √ DX 2 es el diferencial de la distancia adecuada.

La 4 velocidades U μ tiene una forma invariante:

lo que significa que todos los cuatro vectores de velocidad tienen una magnitud de C. Esta es una expresión del hecho de que no existe nada parecido a estar en reposo coordinado en la relatividad: al menos, siempre estás avanzando en el tiempo. Diferenciar la ecuación anterior por τ produce:

Entonces, en la relatividad especial, la aceleración de cuatro vectores y la velocidad de cuatro vectores son ortogonales.

Dinámica relativista e invariancia Editar

La magnitud invariante del 4-vector del momento genera la relación energía-momento:

Podemos averiguar qué es este invariante argumentando primero que, dado que es un escalar, no importa en qué marco de referencia lo calculemos, y luego transformándolo en un marco donde el impulso total es cero.

Vemos que la energía en reposo es una invariante independiente. Se puede calcular una energía en reposo incluso para partículas y sistemas en movimiento, traduciéndola a un marco en el que el momento es cero.

La energía en reposo está relacionada con la masa de acuerdo con la célebre ecuación discutida anteriormente:

La masa de los sistemas medida en su centro de marco de momento (donde el momento total es cero) viene dada por la energía total del sistema en este marco. Puede que no sea igual a la suma de masas de sistemas individuales medidas en otros marcos.

Para usar la tercera ley del movimiento de Newton, ambas fuerzas deben definirse como la tasa de cambio de la cantidad de movimiento con respecto a la misma coordenada de tiempo. Es decir, requiere la fuerza 3D definida anteriormente. Desafortunadamente, no hay un tensor en 4D que contenga los componentes del vector de fuerza 3D entre sus componentes.

Si una partícula no viaja a C, se puede transformar la fuerza 3D del marco de referencia en movimiento conjunto de la partícula en el marco de referencia del observador. Esto produce un 4-vector llamado cuatro fuerzas. Es la tasa de cambio de los cuatro vectores de la cantidad de movimiento de energía anterior con respecto al tiempo adecuado. La versión covariante de las cuatro fuerzas es:

En el marco de reposo del objeto, el componente de tiempo de las cuatro fuerzas es cero a menos que la "masa invariante" del objeto esté cambiando (esto requiere un sistema no cerrado en el que la energía / masa se agregue o elimine directamente del objeto ) en cuyo caso es el negativo de esa tasa de cambio de masa, veces C. Sin embargo, en general, las componentes de las cuatro fuerzas no son iguales a las componentes de las tres fuerzas, porque las tres fuerzas se definen por la tasa de cambio de la cantidad de movimiento con respecto al tiempo coordinado, es decir, dp/dt mientras que las cuatro fuerzas se definen por la tasa de cambio de impulso con respecto al tiempo adecuado, es decir, dp/Dτ.

En un medio continuo, el 3D densidad de fuerza se combina con el densidad de poder para formar un 4-vector covariante. La parte espacial es el resultado de dividir la fuerza en una celda pequeña (en 3 espacios) por el volumen de esa celda. El componente de tiempo es −1 /C multiplicado por la potencia transferida a esa celda dividida por el volumen de la celda. Esto se utilizará a continuación en la sección sobre electromagnetismo.


Historia del misticismo cristiano

Aunque la esencia del misticismo es el sentido de contacto con lo trascendente, el misticismo en la historia del cristianismo no debe entenderse meramente en términos de experiencias extáticas especiales, sino como parte de un proceso religioso vivido dentro de la comunidad cristiana. Desde esta perspectiva, el misticismo jugó un papel vital en la iglesia primitiva. El cristianismo primitivo fue una religión del espíritu que se expresó en la elevación y ampliación de la conciencia humana. Se desprende claramente de los evangelios sinópticos (por ejemplo, Mateo 11: 25-27) que se pensaba que Jesús había disfrutado de un sentido de contacto especial con Dios. En la iglesia primitiva participaron activamente los profetas, que se creía que eran receptores de una revelación que venía directamente del Espíritu Santo.

Sin embargo, el aspecto místico del cristianismo primitivo encuentra su máxima expresión en las cartas de Pablo y El Evangelio según Juan. Para Pablo y Juan, la experiencia mística y la aspiración son siempre de unión con Cristo. El deseo supremo de Pablo era conocer a Cristo y estar unido a él. La frase recurrente, "en Cristo", implica unión personal, una participación en la muerte y resurrección de Cristo. El Cristo con quien Pablo está unido no es el hombre Jesús, a quien se conoce "según la carne". Ha sido exaltado y glorificado, de modo que es uno con el Espíritu.

El misticismo de Cristo aparece nuevamente en El Evangelio según Juan, particularmente en el discurso de despedida (capítulos 14-16), donde Jesús habla de su muerte inminente y de su regreso en el Espíritu para unirse a sus seguidores. En la oración de Jesús en el capítulo 17 hay una visión de una unión interpenetrante de almas en la que todos los que son uno con Cristo comparten su unión perfecta con el Padre.

En los primeros siglos cristianos, la tendencia mística encontró expresión no solo en las tradiciones del cristianismo paulino y joánico (como en los escritos de Ignacio de Antioquía e Ireneo de Lyon), sino también en los gnósticos (herejes cristianos primitivos que veían la materia como malvada y el espíritu tan bueno). Los eruditos todavía debaten los orígenes del gnosticismo, pero la mayoría de los gnósticos se consideraban seguidores de Cristo, aunque un Cristo que era espíritu puro. La religión de Valentinus, que fue excomulgado alrededor del año 150 d.C., es un ejemplo notable del misticismo de los gnósticos. Creía que los seres humanos están alienados de Dios debido a su ignorancia espiritual. Cristo los lleva a la gnosis (conocimiento revelador esotérico) que es la unión con Dios. Valentinus sostuvo que todos los seres humanos provienen de Dios y que al final todos regresarán a Dios. Otros grupos gnósticos sostenían que había tres tipos de personas: "espirituales", "psíquicos" y "materiales", y que solo los dos primeros pueden salvarse. los Pistis Sophia (Siglo III) está preocupado por la cuestión de quién finalmente se salvará. Los que se salvan deben renunciar al mundo por completo y seguir la ética pura del amor y la compasión para que puedan identificarse con Jesús y convertirse en rayos de la Luz divina.


& # 8216American Exceptionalism & # 8217: Una breve historia

En la campaña electoral, Mitt Romney contrasta su visión de la grandeza estadounidense con lo que, según él, es la propensión de Barack Obama a disculparse por ello. El & # 8220 presidente no & # 8217t tiene los mismos sentimientos sobre el excepcionalismo estadounidense que nosotros, & # 8221 Romney ha acusado. Todos los países tienen su propia marca de nacionalismo contundente, pero casi ninguno es tan claramente universal, incluso mesiánico, como esta creencia en el carácter especial y el papel de Estados Unidos en el mundo. Si bien la misión puede tener siglos de antigüedad, la frase entró recientemente en el léxico político, después de que fue pronunciada por primera vez por nada menos que Joseph Stalin. Hoy en día, el término está experimentando un resurgimiento en una era de ansiedad por el declive estadounidense.

1630
Mientras la Compañía de la Bahía de Massachusetts zarpa desde Inglaterra hacia el Nuevo Mundo, el abogado puritano John Winthrop insta a sus compañeros de viaje en el Arabella a & # 8220be como una ciudad sobre una colina, & # 8221 aludiendo a una frase del Sermón del Monte de Jesús. Los colonos deben hacer de Nueva Inglaterra un modelo para futuros asentamientos, señala, ya que & # 8220 los ojos de todas las personas están sobre nosotros & # 8221.

1776
En & # 8220Common Sense & # 8221, el panfletista revolucionario Thomas Paine describe a Estados Unidos como un faro de libertad para el mundo. & # 8220La libertad ha sido perseguida en todo el mundo, & # 8221, explica. & # 8220Asia y África, la han expulsado durante mucho tiempo. Europa la considera una extraña e Inglaterra le ha advertido que se marche. ¡Oh! recibir al fugitivo y preparar a tiempo un asilo para la humanidad. & # 8221

1840
Reflexionando sobre sus viajes por los Estados Unidos en su obra fundamental, Democracia en América, El intelectual francés Alexis de Tocqueville escribe que la & # 8220posición de los estadounidenses & # 8221 es & # 8220 bastante excepcional, y se puede creer que ningún pueblo democrático será colocado jamás en uno similar & # 8221.

1898
& # 8220Sólo hay una especialidad con nosotros, sólo una cosa que puede llamarse con el nombre amplio & # 8216American. & # 8217 Esa es la devoción nacional por el agua helada ... Supongo que somos los únicos en tomar una copa que a nadie le gusta más que a nosotros mismos. & # 8221 & # 8212Mark Twain

1914
El presidente de los Estados Unidos, Woodrow Wilson, infunde la noción de Paine de los Estados Unidos como un bastión de la libertad con celo misionero, argumentando que lo que hace que Estados Unidos sea único es su deber de difundir la libertad en el extranjero. & # 8220 Quiero que lleves estos grandes motores de fuerza a los mares como aventureros alistados para la elevación del espíritu de la raza humana, & # 8221 Wilson les dice a los graduados de la Academia Naval de EE. UU. & # 8220 Porque esa es la única distinción que tiene Estados Unidos. & # 8221

1929-1930
Al acuñar un nuevo término, el líder soviético Joseph Stalin condena la & # 8220 herejía del excepcionalismo estadounidense & # 8221 mientras expulsa al líder comunista estadounidense Jay Lovestone y sus seguidores de la Internacional Comunista por argumentar que el capitalismo estadounidense constituye una excepción al marxismo & # 8217s las leyes universales. En un año, el Partido Comunista de Estados Unidos adoptó el término despectivo de Stalin. & # 8220La tormenta de la crisis económica en los Estados Unidos derribó el castillo de naipes del excepcionalismo estadounidense & # 8221, declara el partido, regodeándose por la Gran Depresión.

1941
Haciendo eco de Wilson, el editor de revistas Henry Luce insta a Estados Unidos a entrar en la Segunda Guerra Mundial e intercambiar el aislacionismo por un & # 8220American Century & # 8221 en el que actúe como & # 8220powerhouse & # 8221 de esos ideales que son & # 8220especialmente estadounidenses & #. 8221

1950
Un grupo de historiadores estadounidenses & # 8212 incluidos Daniel Boorstin, Louis Hartz, Richard Hofstadter y David Potter & # 8212 argumenta que Estados Unidos forjó un & # 8220consenso & # 8221 de valores liberales a lo largo del tiempo que le permitió eludir movimientos como el fascismo. y socialismo. Pero cuestionan si este carácter nacional único se puede reproducir en otros lugares. Como escribe Boorstin, & # 8220 nada podría ser más antiestadounidense que instar a otros países a imitar a Estados Unidos & # 8221.

1961
El presidente John F. Kennedy sugiere que el carácter distintivo de Estados Unidos se deriva de su determinación de ejemplificar y defender la libertad en todo el mundo. Invoca a Winthrop & # 8217s & # 8220city sobre una colina & # 8221 y declara: & # 8220 Más que cualquier otra gente en la Tierra, llevamos cargas y aceptamos riesgos sin precedentes en su tamaño y duración, no solo para nosotros, sino para todos los que deseen ser libre. & # 8221

1975
en un Asuntos nacionales ensayo, & # 8220 El fin del excepcionalismo estadounidense & # 8221, el sociólogo Daniel Bell da voz al creciente escepticismo en el mundo académico sobre el concepto a raíz de la Guerra de Vietnam y el escándalo de Watergate. & # 8220Hoy & # 8221 escribe, & # 8220la creencia en el excepcionalismo estadounidense se ha desvanecido con el fin del imperio, el debilitamiento del poder, la pérdida de la fe en el futuro de la nación & # 8217 & # 8221. & # 8221

1980
Ronald Reagan contrarresta la retórica del presidente Jimmy Carter sobre una & # 8220 crisis de confianza & # 8221 a nivel nacional con himnos a la grandeza estadounidense durante la campaña presidencial. & # 8220 & # 8217 siempre he creído que esta tierra bendita fue apartada de una manera especial, & # 8221 Reagan explica más tarde.

1989
Los últimos días de la Guerra Fría plantean la posibilidad de que el modelo estadounidense se convierta en la norma, no en la excepción. & # 8220 Lo que podemos estar presenciando no es solo el final de la Guerra Fría & # 8221 sino el & # 8220 final de la historia como tal, es decir ... la universalización de la democracia liberal occidental como la forma final de gobierno humano, & # 8221 politólogo Francis Fukuyama proclama la famosa.

En mi mente, era una ciudad alta y orgullosa construida sobre rocas más fuertes que los océanos, barrida por el viento, bendecida por Dios y llena de gente de todo tipo que vivía en armonía y paz. & # 8221 & # 8212Ronald Reagan

1996
En un discurso que justifica la intervención de la OTAN en Bosnia, el presidente Bill Clinton declara que & # 8220America sigue siendo la nación indispensable & # 8221 y que & # 8220 hay momentos en los que América, y solo América, puede marcar la diferencia entre la guerra y la paz, entre la libertad. y represión. & # 8221

2000
El excepcionalismo estadounidense se convierte en un tema de conversación partidista como el futuro redactor de discursos de George W. Bush, Marc Thiessan, en un Estándar semanal artículo, sostiene que hay dos visiones en competencia del internacionalismo en el siglo XXI: el & # 8220 & # 8216 multilateralismo global & # 8217 de los demócratas Clinton-Gore & # 8221 vs & # 8220 & # 8216 el excepcionalismo estadounidense & # 8217 de los republicanos Reagan-Bush . & # 8221

2004
& # 8220Al igual que las generaciones anteriores a nosotros, tenemos un llamado desde más allá de las estrellas para defender la libertad. Este es el sueño eterno de América. & # 8221 & # 8212 George W. Bush

2007-2008
En medio del escepticismo sobre el liderazgo global de Estados Unidos, alimentado por una desastrosa guerra en Irak y la crisis financiera global, el demócrata Barack Obama se enfrenta a la musculosa & # 8220Freedom Agenda & # 8221 de Bush en las elecciones para sucederlo. & # 8220Creo en el excepcionalismo estadounidense, & # 8221 Obama dice, pero no uno basado en & # 8220 nuestra destreza militar o nuestro dominio económico. & # 8221 El encuestador demócrata Mark Penn aconseja a Hillary Clinton que apunte a Obama & # 8217s & # 8220necesidad de raíces estadounidenses & # 8220 # 8221 en la primaria por & # 8220explícitamente [ing] & # 8216American '& # 8221 en su campaña.

2009
Como beca crítica & # 8212 como Godfrey Hodgson & # 8217s El mito del excepcionalismo estadounidense & # 8212 prolifera, Obama se convierte en el primer presidente estadounidense en ejercicio en utilizar la frase & # 8220American excepcionalismo & # 8221 públicamente. & # 8220 & # 8220; sospecho que los británicos creen en el excepcionalismo británico y los griegos creen en el excepcionalismo griego & # 8221 & # 8212, una línea muy citada más tarde por los republicanos ansiosos por demostrar su desdén por la singularidad estadounidense.

2010
El 80 por ciento de los estadounidenses cree que Estados Unidos & # 8220 tiene un carácter único que lo convierte en el país más grande del mundo & # 8221. Pero sólo el 58 por ciento cree que Obama está de acuerdo. & # 8212EE.UU. Hoy en día/Encuesta Gallup

2011-2012
Con el calentamiento de la carrera presidencial, la frase se reduce a una abreviatura de & # 8220quién ama más a Estados Unidos & # 8221. Sin disculpas, El candidato republicano Mitt Romney afirma que Obama cree que & # 8220America & # 8217 es sólo otra nación con una bandera. & # 8221 El presidente, por su parte, invoca a Bill Clinton & # 8217s & # 8220 indispensable nación & # 8221 en su discurso sobre el estado de la Unión y posteriormente declara, en respuesta a los críticos republicanos, & # 8220Mi carrera entera ha sido un testimonio del excepcionalismo estadounidense & # 8221. Si Stalin supiera lo que empezó.

En la campaña electoral, Mitt Romney contrasta su visión de la grandeza estadounidense con lo que, según él, es la propensión de Barack Obama a disculparse por ello. El & # 8220 presidente no & # 8217t tiene los mismos sentimientos sobre el excepcionalismo estadounidense que nosotros, & # 8221 Romney ha acusado. Todos los países tienen su propia marca de nacionalismo contundente, pero casi ninguno es tan claramente universal, incluso mesiánico, como esta creencia en el carácter especial y el papel de Estados Unidos en el mundo. Si bien la misión puede tener siglos de antigüedad, la frase entró recientemente en el léxico político, después de que fue pronunciada por primera vez por nada menos que Joseph Stalin. Hoy, el término está experimentando un resurgimiento en una era de ansiedad por el declive estadounidense.

1630
Mientras la Compañía de la Bahía de Massachusetts zarpa desde Inglaterra hacia el Nuevo Mundo, el abogado puritano John Winthrop insta a sus compañeros de viaje en el Arabella a & # 8220be como una ciudad sobre una colina, & # 8221 aludiendo a una frase del Sermón del Monte de Jesús.Los colonos deben hacer de Nueva Inglaterra un modelo para futuros asentamientos, señala, ya que & # 8220 los ojos de todas las personas están sobre nosotros & # 8221.

1776
En & # 8220Common Sense & # 8221, el panfletista revolucionario Thomas Paine describe a Estados Unidos como un faro de libertad para el mundo. & # 8220La libertad ha sido perseguida en todo el mundo, & # 8221, explica. & # 8220Asia y África, la han expulsado durante mucho tiempo. Europa la considera una extraña e Inglaterra le ha advertido que se marche. ¡Oh! recibir al fugitivo y preparar a tiempo un asilo para la humanidad. & # 8221

1840
Reflexionando sobre sus viajes por los Estados Unidos en su obra fundamental, Democracia en América, El intelectual francés Alexis de Tocqueville escribe que la & # 8220posición de los estadounidenses & # 8221 es & # 8220 bastante excepcional, y se puede creer que ningún pueblo democrático será colocado jamás en uno similar & # 8221.

1898
& # 8220Sólo hay una especialidad con nosotros, sólo una cosa que puede llamarse con el nombre amplio & # 8216American. & # 8217 Esa es la devoción nacional por el agua helada ... Supongo que somos los únicos en tomar una copa que a nadie le gusta más que a nosotros mismos. & # 8221 & # 8212Mark Twain

1914
El presidente de los Estados Unidos, Woodrow Wilson, infunde la noción de Paine de los Estados Unidos como un bastión de la libertad con celo misionero, argumentando que lo que hace que Estados Unidos sea único es su deber de difundir la libertad en el extranjero. & # 8220 Quiero que lleves estos grandes motores de fuerza a los mares como aventureros alistados para la elevación del espíritu de la raza humana, & # 8221 Wilson les dice a los graduados de la Academia Naval de EE. UU. & # 8220 Porque esa es la única distinción que tiene Estados Unidos. & # 8221

1929-1930
Al acuñar un nuevo término, el líder soviético Joseph Stalin condena la & # 8220 herejía del excepcionalismo estadounidense & # 8221 mientras expulsa al líder comunista estadounidense Jay Lovestone y sus seguidores de la Internacional Comunista por argumentar que el capitalismo estadounidense constituye una excepción al marxismo & # 8217s las leyes universales. En un año, el Partido Comunista de Estados Unidos adoptó el término despectivo de Stalin. & # 8220La tormenta de la crisis económica en los Estados Unidos derribó el castillo de naipes del excepcionalismo estadounidense & # 8221, declara el partido, regodeándose por la Gran Depresión.

1941
Haciendo eco de Wilson, el editor de revistas Henry Luce insta a Estados Unidos a entrar en la Segunda Guerra Mundial e intercambiar el aislacionismo por un & # 8220American Century & # 8221 en el que actúe como & # 8220powerhouse & # 8221 de esos ideales que son & # 8220especialmente estadounidenses & #. 8221

1950
Un grupo de historiadores estadounidenses & # 8212 incluidos Daniel Boorstin, Louis Hartz, Richard Hofstadter y David Potter & # 8212 argumenta que Estados Unidos forjó un & # 8220consenso & # 8221 de valores liberales a lo largo del tiempo que le permitió eludir movimientos como el fascismo. y socialismo. Pero cuestionan si este carácter nacional único se puede reproducir en otros lugares. Como escribe Boorstin, & # 8220 nada podría ser más antiestadounidense que instar a otros países a imitar a Estados Unidos & # 8221.

1961
El presidente John F. Kennedy sugiere que el carácter distintivo de Estados Unidos se deriva de su determinación de ejemplificar y defender la libertad en todo el mundo. Invoca a Winthrop & # 8217s & # 8220city sobre una colina & # 8221 y declara: & # 8220 Más que cualquier otra gente en la Tierra, llevamos cargas y aceptamos riesgos sin precedentes en su tamaño y duración, no solo para nosotros, sino para todos los que deseen ser libre. & # 8221

1975
en un Asuntos nacionales ensayo, & # 8220 El fin del excepcionalismo estadounidense & # 8221, el sociólogo Daniel Bell da voz al creciente escepticismo en el mundo académico sobre el concepto a raíz de la Guerra de Vietnam y el escándalo de Watergate. & # 8220Hoy & # 8221 escribe, & # 8220la creencia en el excepcionalismo estadounidense se ha desvanecido con el fin del imperio, el debilitamiento del poder, la pérdida de la fe en el futuro de la nación & # 8217 & # 8221. & # 8221

1980
Ronald Reagan contrarresta la retórica del presidente Jimmy Carter sobre una & # 8220 crisis de confianza & # 8221 a nivel nacional con himnos a la grandeza estadounidense durante la campaña presidencial. & # 8220 & # 8217 siempre he creído que esta tierra bendita fue apartada de una manera especial, & # 8221 Reagan explica más tarde.

1989
Los últimos días de la Guerra Fría plantean la posibilidad de que el modelo estadounidense se convierta en la norma, no en la excepción. & # 8220 Lo que podemos estar presenciando no es solo el final de la Guerra Fría & # 8221 sino el & # 8220 final de la historia como tal, es decir ... la universalización de la democracia liberal occidental como la forma final de gobierno humano, & # 8221 politólogo Francis Fukuyama proclama la famosa.

En mi mente, era una ciudad alta y orgullosa construida sobre rocas más fuertes que los océanos, barrida por el viento, bendecida por Dios y llena de gente de todo tipo que vivía en armonía y paz. & # 8221 & # 8212Ronald Reagan

1996
En un discurso que justifica la intervención de la OTAN en Bosnia, el presidente Bill Clinton declara que & # 8220America sigue siendo la nación indispensable & # 8221 y que & # 8220 hay momentos en los que América, y solo América, puede marcar la diferencia entre la guerra y la paz, entre la libertad. y represión. & # 8221

2000
El excepcionalismo estadounidense se convierte en un tema de conversación partidista como el futuro redactor de discursos de George W. Bush, Marc Thiessan, en un Estándar semanal artículo, sostiene que hay dos visiones en competencia del internacionalismo en el siglo XXI: el & # 8220 & # 8216 multilateralismo global & # 8217 de los demócratas Clinton-Gore & # 8221 vs & # 8220 & # 8216 el excepcionalismo estadounidense & # 8217 de los republicanos Reagan-Bush . & # 8221

2004
& # 8220Al igual que las generaciones anteriores a nosotros, tenemos un llamado desde más allá de las estrellas para defender la libertad. Este es el sueño eterno de América. & # 8221 & # 8212 George W. Bush

2007-2008
En medio del escepticismo sobre el liderazgo global de Estados Unidos, alimentado por una desastrosa guerra en Irak y la crisis financiera global, el demócrata Barack Obama se enfrenta a la musculosa & # 8220Freedom Agenda & # 8221 de Bush en las elecciones para sucederlo. & # 8220Creo en el excepcionalismo estadounidense, & # 8221 Obama dice, pero no uno basado en & # 8220 nuestra destreza militar o nuestro dominio económico. & # 8221 El encuestador demócrata Mark Penn aconseja a Hillary Clinton que apunte a Obama & # 8217s & # 8220necesidad de raíces estadounidenses & # 8220 # 8221 en la primaria por & # 8220explícitamente [ing] & # 8216American '& # 8221 en su campaña.

2009
Como beca crítica & # 8212 como Godfrey Hodgson & # 8217s El mito del excepcionalismo estadounidense & # 8212 prolifera, Obama se convierte en el primer presidente estadounidense en ejercicio en utilizar la frase & # 8220American excepcionalismo & # 8221 públicamente. & # 8220 & # 8220; sospecho que los británicos creen en el excepcionalismo británico y los griegos creen en el excepcionalismo griego & # 8221 & # 8212, una línea muy citada más tarde por los republicanos ansiosos por demostrar su desdén por la singularidad estadounidense.

2010
El 80 por ciento de los estadounidenses cree que Estados Unidos & # 8220 tiene un carácter único que lo convierte en el país más grande del mundo & # 8221. Pero sólo el 58 por ciento cree que Obama está de acuerdo. & # 8212EE.UU. Hoy en día/Encuesta Gallup

2011-2012
Con el calentamiento de la carrera presidencial, la frase se reduce a una abreviatura de & # 8220quién ama más a Estados Unidos & # 8221. Sin disculpas, El candidato republicano Mitt Romney afirma que Obama cree que & # 8220America & # 8217 es sólo otra nación con una bandera. & # 8221 El presidente, por su parte, invoca a Bill Clinton & # 8217s & # 8220 indispensable nación & # 8221 en su discurso sobre el estado de la Unión y posteriormente declara, en respuesta a los críticos republicanos, & # 8220Mi carrera entera ha sido un testimonio del excepcionalismo estadounidense & # 8221. Si Stalin supiera lo que empezó.

Uri Friedman es subdirector general de Foreign Policy. Antes de unirse a FP, se reportó para el Monitor de la Ciencia Cristiana, trabajó en la estrategia corporativa para Atlantic Media, ayudó a lanzar el Atlantic Wirey cubrió los asuntos internacionales del sitio. Oriundo de Filadelfia, Pensilvania, estudió historia europea en la Universidad de Pensilvania y ha vivido en Barcelona, ​​España y Ginebra, Suiza. Gorjeo: @UriLF


Armas []

". Stygius, la Espada del Inframundo, debe haber estado entre las mejores armas jamás empuñadas, cuando estaba completa".


El patrón de ataque predeterminado de la hoja es un combo largo de tres golpes que consiste en una mezcla de golpes amplios y direccionales. El especial crea una pequeña ráfaga a tu alrededor después de un salto corto y te deja inmóvil por un corto tiempo.

". Debe haber sido un espectáculo cuando Lord Hades empuñó a Varatha la Lanza Eterna contra los Titanes, haciendo retroceder a esos demonios a las profundidades, junto con la ayuda de sus hermanos y hermanas olímpicos".


Ataques repetidos de puñalada de largo alcance que se pueden cargar para desatar un ataque giratorio que inflige un gran daño en un amplio radio. El especial lanza la lanza, que dañará a los enemigos a lo largo de su camino hasta que se detenga. Activar especial nuevamente recuerda la lanza, que causará daño en el camino de regreso.

". Aegis, el Escudo del Caos, predecesor de la misma Aegis ejercida por el Señor Zeus y por Atenea, su hija más favorecida. el Señor del Trueno defendió a sus hermanos y hermanas usando ese mismo escudo y luego, juntos, conspiraron para hacer retroceder a los Titanes a los confines del Inframundo. "


El ataque principal es un solo golpe que golpea en un arco y derriba a los enemigos. Mantener presionado el botón de ataque bloqueará el daño desde el frente, mientras carga el "Bull Rush". Al soltar esto, se ejecutará un golpe de escudo hacia adelante, lo que infligirá daño a los enemigos golpeados. El especial lanza el escudo, que rebota entre enemigos y objetos antes de regresar.

". Coronacht, el llamado Heart-Seeker, es sin duda el arco más fino jamás concebido, y esgrimido una vez por nada menos que la señora Hera, quien estuvo al lado de Zeus, en mejores términos en ese entonces, cuando hicieron retroceder a los titanes bajo una tormenta. de flechas y truenos. "


Ataques a distancia que golpean a los enemigos a distancia. El ataque principal se puede cargar para aumentar la distancia y el daño, liberándose en el momento adecuado para un daño adicional. El especial rocía flechas en un cono frente a ti, lo que inflige 10 de daño cada uno.

". ¿Qué es un arma sino la extensión de la propia voluntad de sobrevivir, de destruir? Los antiguos maestros de forja ciclópeos que crearon los Armas Infernales de acuerdo con el diseño de las Parcas deben haberlo entendido cuando entregaron los singulares Puños Gemelos de Malphon en secreto a los dioses. "


Ataques combinados rápidos y repetitivos de corto alcance con puños en combates cuerpo a cuerpo. El especial es un uppercut que golpea dos veces. Esta arma es única debido a que es el único Brazo Infernal con un especial de carrera si el especial se usa mientras corres, hará un uppercut más rápido pero solo golpeará una vez.

". La menos conocida entre los dioses que se unieron para deponer a los Titanes es Lady Hestia, diosa solitaria del hogar y una vez portadora de Exagryph, el Carril de Adamant, un artefacto de metal y llamas tan terrible que los mismos dioses lo abandonaron. una vez que su trabajo final estuvo hecho. "


Disparo automático o manual (dependiendo de si se presiona o mantiene el Ataque) que debe recargarse una vez que se haya usado toda la munición. El especial lanza una granada para bombardear el área objetivo, que tarda un poco en llegar pero causa daño en un área una vez que aterriza.


Tratado internacional de derechos humanos

En 2006, la Asamblea General de las Naciones Unidas adoptó la Convención sobre los derechos de las personas con discapacidad, primer gran tratado de derechos humanos del siglo XXI. El Congreso de los Estados Unidos aún no lo ha ratificado.

Varios años después, el Congreso aprobó la Ley de prevención de delitos de odio, que amplía la ley federal para cubrir los delitos motivados por la discapacidad de una persona.

Se han logrado enormes avances gracias al compromiso de las personas con discapacidad y sus familias. Sin embargo, queda mucho por hacer. Los estereotipos continúan impregnando nuestra sociedad. Las personas con discapacidad sufren una incidencia mucho mayor de acoso y otras formas de abuso que la población en general. El desempleo es alto y demasiadas personas que desean vivir dentro de la comunidad permanecen institucionalizadas.

Requerirá una defensa y protección continuas de los servicios y apoyos obtenidos con tanto esfuerzo disponibles a través de los programas gubernamentales para lograr la inclusión total de las personas con discapacidades en las actividades diarias de la sociedad.

List of site sources >>>


Ver el vídeo: Special Aspects of Ethics and Medicine Dr Hussein Sheashaa Nov 11, 2012 (Diciembre 2021).