Astronomie

Y a-t-il une limite physique jusqu'où nous pouvons aller ?

Y a-t-il une limite physique jusqu'où nous pouvons aller ?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Y a-t-il une limite physique jusqu'où nous pouvons aller ? Je pense qu'il pourrait être basé sur les éléments suivants:

1: Il y a des parties de l'univers qui s'étendent plus vite que la vitesse de la lumière que nous ne pourrons jamais atteindre (sans un voyage plus rapide que la lumière)

2 : Il y a un nombre fini de galaxies entre ici et la distance où 1 a lieu.

3: Si nous voyageons même à la vitesse de la lumière, il semble que nous passerions à un moment donné ce nombre fini de galaxies, et ne pourrions pas atteindre la suivante !

Cela signifie-t-il qu'il y a une limite jusqu'où nous pouvons aller, et en plus, nous allons vivre la « grande déchirure » ?


Vos 3 points sont sur place. Il y a un nombre fini de galaxies que nous pourrions théoriquement atteindre pour les raisons que vous dites. Plus la galaxie lointaine est éloignée plus l'expansion de l'espace entre nous et cette galaxie est grande et au-delà d'une certaine distance, les galaxies ne peuvent pas être atteintes, même par la vitesse de la lumière. Nous pouvons voir des galaxies vers lesquelles nous ne pourrions pas voyager.

Cela signifie-t-il qu'il y a une limite jusqu'où nous pouvons aller, et en plus, nous allons vivre la « grande déchirure » ?

Non. Cela signifie seulement que certaines galaxies que nous pouvons voir, nous ne pourrions jamais voyager. Il n'y a pas de limite à la distance que nous pouvons parcourir, mais il existe toujours un nombre fini de galaxies que nous pourrions atteindre avec une vitesse proche de la vitesse de la lumière.

Cet article, utilisant l'estimation actuelle de la taille de l'univers observable de 46 milliards d'années-lumière de rayon, indique que la distance de 14,5 milliards d'années-lumière est la limite que nous pourrions théoriquement atteindre, environ 3% de l'univers observable ou environ 3 milliards de galaxies.

Quant à la grosse déchirure. Personne ne sait si c'est une prédiction exacte. C'est un résultat possible, mais nous n'en savons pas assez sur l'énergie noire pour dire si la grande déchirure se produira ou non. Personne ne sait.

Et c'est un joli psaume, mais je n'y vois pas la prédiction de l'énergie noire. Seulement cela dit que l'Univers vieillira, mais la vie est éternelle - ce qui est une belle pensée.


Limite de Chandrasekhar

Nos rédacteurs examineront ce que vous avez soumis et détermineront s'il faut réviser l'article.

Limite de Chandrasekhar, en astrophysique, masse maximale théoriquement possible pour une étoile naine blanche stable.

Cette valeur limite a été nommée d'après l'astrophysicien d'origine indienne Subrahmanyan Chandrasekhar, qui l'a formulée en 1930. En utilisant la théorie de la relativité restreinte d'Albert Einstein et les principes de la physique quantique, Chandrasekhar a montré qu'il est impossible pour une étoile naine blanche, qui est soutenue uniquement par un gaz dégénéré d'électrons, pour être stable si sa masse est supérieure à 1,44 fois la masse du Soleil. Si une telle étoile n'épuise pas complètement son combustible thermonucléaire, alors cette masse limite peut être légèrement plus importante.

Toutes les déterminations de masse directes d'étoiles naines blanches réelles ont abouti à des masses inférieures à la limite de Chandrasekhar. Une étoile qui termine sa durée de vie de combustion nucléaire avec une masse supérieure à la limite de Chandrasekhar doit devenir soit une étoile à neutrons, soit un trou noir.


Vivons-nous dans une simulation ? Les chances sont d'environ 50-50

Ce n'est pas souvent qu'un comédien donne la chair de poule à un astrophysicien lorsqu'il discute des lois de la physique. Mais le comique Chuck Nice a réussi à faire exactement cela dans un récent épisode du podcast StarTalk. L'animateur de l'émission Neil deGrasse Tyson venait d'expliquer l'argument de la simulation&mdash l'idée que nous pourrions être des êtres virtuels vivant dans une simulation informatique. Si tel est le cas, la simulation créerait très probablement des perceptions de la réalité à la demande plutôt que de simuler toute la réalité tout le temps, un peu comme un jeu vidéo optimisé pour ne rendre visibles que les parties d'une scène pour un joueur. "Peut-être que c'est pour cela que nous pouvons voyager plus vite que la vitesse de la lumière, car si nous le pouvions, nous pourrons nous rendre dans une autre galaxie", a déclaré Nice, le co-animateur de l'émission, incitant Tyson à interrompre joyeusement. "Avant qu'ils ne puissent le programmer", a déclaré l'astrophysicien, se réjouissant à l'idée. &ldquoLe programmeur a donc mis cette limite.&rdquo

De telles conversations peuvent sembler désinvoltes. Mais depuis que Nick Bostrom de l'Université d'Oxford a écrit un article fondateur sur l'argument de la simulation en 2003, les philosophes, les physiciens, les technologues et, oui, les comédiens ont été aux prises avec l'idée que notre réalité soit un simulacre. Certains ont essayé d'identifier les moyens par lesquels nous pouvons discerner si nous sommes des êtres simulés. D'autres ont tenté de calculer la probabilité que nous soyons des entités virtuelles. Maintenant, une nouvelle analyse montre que les chances que nous vivions dans une réalité de base&mdashsignifiant une existence qui n'est pas simulée&mdapart à peu près égale. Mais l'étude démontre également que si les humains développaient un jour la capacité de simuler des êtres conscients, les chances pencheraient massivement en notre faveur également, étant des habitants virtuels à l'intérieur de l'ordinateur de quelqu'un d'autre. (Une mise en garde à cette conclusion est qu'il y a peu d'accord sur ce que le terme « ldquoconscience » signifie, sans parler de la façon dont on pourrait procéder pour le simuler.)

En 2003, Bostrom a imaginé une civilisation technologiquement adepte qui possède une immense puissance de calcul et a besoin d'une fraction de cette puissance pour simuler de nouvelles réalités avec des êtres conscients. Compte tenu de ce scénario, son argument de simulation a montré qu'au moins une proposition du trilemme suivant doit être vraie : Premièrement, les humains disparaissent presque toujours avant d'atteindre le stade de la simulation. Deuxièmement, même si les humains parviennent à ce stade, il est peu probable qu'ils soient intéressés par la simulation de leur propre passé ancestral. Et troisièmement, la probabilité que nous vivions dans une simulation est proche de un.

Avant Bostrom, le film La matrice avait déjà contribué à vulgariser la notion de réalités simulées. Et l'idée a des racines profondes dans les traditions philosophiques occidentales et orientales, de l'allégorie de la grotte de Platon au rêve de papillon de Zhuang Zhou&rsquos. Plus récemment, Elon Musk a donné un nouvel élan au concept selon lequel notre réalité est une simulation : « La probabilité que nous soyons dans la réalité de base est de une sur des milliards », a-t-il déclaré lors d'une conférence en 2016.

&ldquoMusk a raison si vous supposez que [les propositions] un et deux du trilemme sont fausses&rdquo, dit l'astronome David Kipping de l'Université de Columbia. &ldquoComment pouvez-vous supposer cela ?&rdquo

Pour mieux appréhender l'argument de la simulation de Bostrom&rsquos, Kipping a décidé de recourir au raisonnement bayésien. Ce type d'analyse utilise le théorème de Bayes, du nom de Thomas Bayes, statisticien et ministre anglais du XVIIIe siècle. L'analyse bayésienne permet de calculer les probabilités que quelque chose se produise (appelée probabilité &ldquopostérieure&rdquo) en faisant d'abord des hypothèses sur la chose analysée (en lui attribuant une probabilité &ldquoprior&rdquo).

Kipping a commencé par transformer le trilemme en dilemme. Il a regroupé les propositions un et deux en un seul énoncé, car dans les deux cas, le résultat final est qu'il n'y a pas de simulations. Ainsi, le dilemme oppose une hypothèse physique (il n'y a pas de simulations) à l'hypothèse de simulation (il y a une réalité de base et il y a aussi des simulations). &ldquoVous attribuez simplement une probabilité a priori à chacun de ces modèles,&rdquo Kipping dit. &ldquoNous supposons simplement le principe d'indifférence, qui est l'hypothèse par défaut lorsque vous n'avez aucune donnée ou inclinaison de toute façon.&rdquo

Ainsi, chaque hypothèse obtient une probabilité a priori de moitié, un peu comme si l'on devait lancer une pièce pour décider d'un pari.

L'étape suivante de l'analyse nécessitait une réflexion sur les &ldquoparous&rdquo réalités&mdashceux qui peuvent générer d'autres réalités&mdashand &ldquonullipares&rdquo réalités&mdashceux qui ne peuvent simuler les réalités de la progéniture. Si l'hypothèse physique était vraie, alors la probabilité que nous vivions dans un univers nullipare serait facile à calculer : elle serait de 100 %. Kipping montra alors que même dans l'hypothèse de simulation, la plupart des réalités simulées seraient nullipares. En effet, à mesure que les simulations engendrent de plus en plus de simulations, les ressources informatiques disponibles pour chaque génération suivante diminuent au point où la grande majorité des réalités seront celles qui n'ont pas la puissance de calcul nécessaire pour simuler des réalités progénitures capables d'héberger des êtres conscients.

Branchez tout cela dans une formule bayésienne, et vous obtenez la réponse : la probabilité postérieure que nous vivions dans la réalité de base est presque la même que la probabilité postérieure que nous soyons une simulation et les probabilités penchent en faveur de la réalité de base d'un tout petit peu.

Ces probabilités changeraient radicalement si les humains créaient une simulation avec des êtres conscients à l'intérieur, car un tel événement changerait les chances que nous avons précédemment attribuées à l'hypothèse physique. &ldquoVous pouvez simplement exclure cette [hypothèse] dès le départ. Ensuite, il ne vous reste plus que l'hypothèse de la simulation », dit Kipping. &ldquoLe jour où nous inventons cette technologie, cela fait passer les chances d'un peu mieux que 50&ndash50 que nous sommes réels à presque certainement que nous ne le sommes pas, selon ces calculs. C'est une très étrange célébration de notre génie ce jour-là.

Le résultat de l'analyse de Kipping&rsquos est que, compte tenu des preuves actuelles, Musk se trompe sur les chances d'un milliard qu'il nous attribue de vivre dans une réalité de base. Bostrom est d'accord avec le résultat&mdash avec quelques mises en garde. « Cela n'entre pas en conflit avec l'argument de la simulation, qui ne fait qu'affirmer quelque chose sur la disjonction», » l'idee qu'une des trois propositions du trilemme est vraie, dit-il.

Mais Bostrom conteste le choix de Kipping&rsquos d'attribuer des probabilités antérieures égales à l'hypothèse physique et à l'hypothèse de simulation au début de l'analyse. &ldquoL'invocation du principe d'indifférence est ici plutôt bancale,», dit-il. &ldquoOne pourrait aussi bien l'invoquer sur mes trois alternatives d'origine, ce qui leur donnerait alors un tiers de chance chacune. Ou on pourrait diviser l'espace de possibilité d'une autre manière et obtenir le résultat qu'on souhaite.&rdquo

Ces arguties sont valables parce qu'il n'y a aucune preuve pour soutenir une revendication sur les autres. Cette situation changerait si nous pouvions trouver des preuves d'une simulation. Alors, pourriez-vous détecter un problème dans la matrice ?

Houman Owhadi, expert en mathématiques informatiques au California Institute of Technology, a réfléchi à la question. "Si la simulation a une puissance de calcul infinie, il n'y a aucun moyen de voir que vous vivez dans une réalité virtuelle, car elle pourrait calculer tout ce que vous voulez avec le degré de réalisme que vous voulez", dit-il. &ldquoSi cette chose peut être détectée, vous devez partir du principe qu'[elle a] des ressources de calcul limitées.&rdquo Repensez aux jeux vidéo, dont beaucoup reposent sur une programmation intelligente pour minimiser les calculs nécessaires à la construction d'un monde virtuel.

Pour Owhadi, la façon la plus prometteuse de rechercher les paradoxes potentiels créés par de tels raccourcis informatiques passe par des expériences de physique quantique. Les systèmes quantiques peuvent exister dans une superposition d'états, et cette superposition est décrite par une abstraction mathématique appelée fonction d'onde. En mécanique quantique standard, l'acte d'observation provoque l'effondrement aléatoire de cette fonction d'onde dans l'un des nombreux états possibles. Les physiciens sont divisés sur la question de savoir si le processus d'effondrement est quelque chose de réel ou reflète simplement un changement dans nos connaissances sur le système. &ldquoS'il ne s'agit que d'une pure simulation, il n'y a pas d'effondrement,&rdquo Owhadi dit. &ldquoTout est décidé quand vous le regardez. Le reste n'est que simulation, comme lorsque vous jouez à ces jeux vidéo.

À cette fin, Owhadi et ses collègues ont travaillé sur cinq variantes conceptuelles de l'expérience à double fente, chacune conçue pour déclencher une simulation. Mais il reconnaît qu'il est impossible de savoir, à ce stade, si de telles expériences pourraient fonctionner. &ldquoCes cinq expériences ne sont que des conjectures&rdquo, dit Owhadi.

Zohreh Davoudi, physicien à l'Université du Maryland, College Park, a également entretenu l'idée qu'une simulation avec des ressources informatiques finies pourrait se révéler. Son travail se concentre sur les interactions fortes, ou la force nucléaire forte&mdashone de la nature&rsquos quatre forces fondamentales. Les équations décrivant les interactions fortes, qui unissent les quarks pour former des protons et des neutrons, sont si complexes qu'elles ne peuvent pas être résolues analytiquement. Pour comprendre les interactions fortes, les physiciens sont obligés de faire des simulations numériques. Et contrairement à toutes les supercivilisations putatives possédant une puissance de calcul illimitée, elles doivent s'appuyer sur des raccourcis pour rendre ces simulations viables sur le plan informatique, généralement en considérant l'espace-temps comme étant discret plutôt que continu. Le résultat le plus avancé que les chercheurs ont réussi à tirer de cette approche jusqu'à présent est la simulation d'un seul noyau d'hélium composé de deux protons et de deux neutrons.

&ldquoNaturellement, vous commencez à demander, si vous simuliez un noyau atomique aujourd'hui, peut-être dans 10 ans, nous pourrions faire un plus gros noyau peut-être dans 20 ou 30 ans, nous pourrions faire une molécule,&rdquo Davoudi dit. &ldquoDans 50 ans, qui sait, peut-être pourrez-vous faire quelque chose de la taille de quelques centimètres de matière. Peut-être que dans 100 ans environ, nous pourrons faire le cerveau [humain].»

Davoudi pense cependant que les ordinateurs classiques vont bientôt se heurter à un mur. &ldquoDans les 10 à 20 prochaines années, nous verrons en fait les limites de nos simulations classiques des systèmes physiques,», dit-elle. Ainsi, elle se tourne vers le calcul quantique, qui s'appuie sur des superpositions et d'autres effets quantiques pour résoudre certains problèmes de calcul qui seraient impossibles avec les approches classiques. « Si l'informatique quantique se matérialise réellement, dans le sens où c'est une option informatique fiable et à grande échelle pour nous, alors nous allons entrer dans une ère de simulation complètement différente », déclare Davoudi. &ldquoJe commence à réfléchir à la façon d'effectuer mes simulations de la physique des interactions fortes et des noyaux atomiques si j'avais un ordinateur quantique qui était viable.&rdquo

Tous ces facteurs ont conduit Davoudi à spéculer sur l'hypothèse de la simulation. Si notre réalité est une simulation, alors le simulateur discrétise probablement aussi l'espace-temps pour économiser des ressources informatiques (en supposant, bien sûr, qu'il utilise les mêmes mécanismes que nos physiciens pour cette simulation). Des signatures d'un espace-temps aussi discret pourraient potentiellement être observées dans les directions d'où proviennent les rayons cosmiques de haute énergie : ils auraient une direction privilégiée dans le ciel en raison de la rupture de ce qu'on appelle la symétrie de rotation.

Les télescopes " n'ont pas encore observé de déviation par rapport à cette invariance rotationnelle ", dit Davoudi. Et même si un tel effet était observé, il ne constituerait pas une preuve sans équivoque que nous vivons dans une simulation. La réalité de base elle-même pourrait avoir des propriétés similaires.

Kipping, malgré sa propre étude, craint que la poursuite des travaux sur l'hypothèse de simulation se fasse sur de la glace mince. "Il n'est sans doute pas vérifiable de savoir si nous vivons dans une simulation ou non", dit-il. &ldquoSi ce n'est pas falsifiable, alors comment pouvez-vous le prétendre vraiment scientifique ?&rdquo

Pour lui, il existe une réponse plus évidente : le rasoir d'Occam&rsquos, qui dit qu'en l'absence d'autres preuves, l'explication la plus simple a plus de chances d'être correcte. L'hypothèse de simulation est élaborée, supposant des réalités imbriquées dans des réalités, ainsi que des entités simulées qui ne peuvent jamais dire qu'elles sont à l'intérieur d'une simulation. &ldquoParce que c'est un modèle trop compliqué et élaboré en premier lieu, par le rasoir Occam&rsquos, il devrait vraiment être défavorisé, par rapport à la simple explication naturelle,&rdquo Kipping dit.

Peut-être vivons-nous dans une réalité de base après tout&mdashLa matrice, Malgré le musc et la physique quantique étrange.


Sommes-nous dans une simulation ou non ?

Plus j'en apprends sur la QM et la relativité générale, il semble que nous soyons dans une sorte de simulation ou ma logique est-elle erronée parce que je ne suis pas vraiment un expert ?

Par example:
-La limite de vitesse de la lumière de l'univers ressemble plus à une limite/contrainte de traitement du processeur
-Au même effet, la courbure de l'espace-temps due à la masse est une indication de l'ajustement de la simulation pour restituer des quantités massives de matière (données) ? c'est-à-dire comme un ordinateur qui ralentit lorsqu'il y a trop de microprocessus.
-De plus, les particules quantiques n'ayant un état (effondrement de la fonction d'onde) qu'au moment où elles sont mesurées/observées semble être quelque chose qu'un jeu informatique bien conçu ferait. c'est-à-dire de ne rendre que ce qui est à l'écran.

Suis-je en train d'afficher une erreur logique évidente ici ? Peut-être un sophisme de corrélation/causalité ou un sophisme de généralisation hâtive ?

Bienvenue à votre contribution et heureux d'être prouvé le contraire.

Énergiepotentiellevide

Hawkstein

Je n'ai jamais dit ni même laissé entendre qu'ils étaient mariés ou même connectés. Je regardais simplement le comportement de chacun séparément, dans lequel par coïncidence, l'OMI, je vois des allusions à la "simulation" dans les deux. Ceci est pure postulation et rien de plus.

J'espérais avoir une conversation sur les exemples individuels que j'ai faits, soit pour persuader, soit pour dissuader mon opinion.

Je n'ai jamais dit ni même laissé entendre qu'ils étaient mariés ou même connectés. Je regardais simplement le comportement de chacun séparément, dans lequel par coïncidence, l'OMI, je vois des allusions à la "simulation" dans les deux. Ceci est pure postulation et rien de plus.

J'espérais avoir une conversation sur les exemples individuels que j'ai faits, soit pour persuader, soit pour dissuader mon opinion.

Hawkstein

Désolé, je n'ai pas compris votre première phrase, en particulier "pas de limites sur la simulation", pouvez-vous développer comme si j'avais 10 ans ?

Je ne suis pas convaincu de l'interprétation de "Many Worlds" de QM. il est possible que nous soyons la seule simulation (50/50 est ma position actuelle sur MW). Aux fins de la discussion, pas besoin d'extrapoler sur MW, je pense.

Désolé, je n'ai pas compris votre première phrase, en particulier "aucune limite à la simulation", pouvez-vous développer comme si j'avais 10 ans ?

Je ne suis pas convaincu de l'interprétation de "Many Worlds" de QM. il est possible que nous soyons la seule simulation (50/50 est ma position actuelle sur MW). Aux fins de la discussion, pas besoin d'extrapoler sur MW, je pense.

Hawkstein

Hawkstein

Hawkstein

Excellente question. Un rapport récent a indiqué qu'il n'y a pas de réalité objective - au niveau quantique, physique quantique : notre étude suggère que la réalité objective n'existe pas

Comment la réalité objective est-elle déterminée dans votre univers de simulation si vous ne pouvez pas déterminer que la Terre est ronde ou plate ? Un problème pour un système judiciaire aussi. Dans l'univers de la simulation, comment pouvez-vous condamner quelqu'un pour meurtre si le meurtre est une simulation ou condamner un criminel pour un braquage de banque alors que le voleur est une simulation comme un jeu ?

Énergiepotentiellevide

Énergiepotentiellevide

Excellente question. Un rapport récent a indiqué qu'il n'y a pas de réalité objective - au niveau quantique, physique quantique : notre étude suggère que la réalité objective n'existe pas

Comment la réalité objective est-elle déterminée dans votre univers de simulation si vous ne pouvez pas déterminer que la Terre est ronde ou plate ? Un problème pour un système judiciaire aussi. Dans l'univers de la simulation, comment pouvez-vous condamner quelqu'un pour meurtre si le meurtre est une simulation ou condamner un criminel pour un braquage de banque alors que le voleur est une simulation comme un jeu ?

Un peu comme ça, si vous ne le voyez pas, c'est qu'il n'y avait pas d'idée.
Je pense que cela existait depuis le début et nous ne l'avons pas encore vu.

Bien sûr, cela pourrait être une simulation, mais alors à quelle fin est la simulation ?
Il doit y avoir de bien meilleures choses à simuler que ce que nous faisons au jour le jour.

Un peu comme ça, si vous ne le voyez pas, c'est qu'il n'y avait pas d'idée.
Je pense que cela existait depuis le début et nous ne l'avons pas encore vu.

Bien sûr, cela pourrait être une simulation, mais alors à quelle fin est la simulation ?
Il doit y avoir de bien meilleures choses à simuler que ce que nous faisons au jour le jour.

Hawkstein

Hawkstein

Hawkstein, j'ai trouvé ce rapport sur l'univers de la simulation. Avant vos discussions - je n'en ai jamais entendu parler Ceci est un rapport de Wikipédia, hypothèse de simulation Je note que le rapport indique essentiellement que la science peut ne pas être en mesure de montrer que l'hypothèse de simulation est vraie ou fausse. "Le hypothèse de simulation ou alors théorie de la simulation propose que toute la réalité, y compris la Terre et l'univers, est en fait une simulation artificielle, très probablement une simulation informatique. Certaines versions reposent sur le développement d'une réalité simulée, une technologie proposée qui semblerait suffisamment réaliste pour convaincre ses habitants que la simulation était réelle. L'hypothèse a été un élément central de l'intrigue de nombreux films et histoires de science-fiction.

Si les gens acceptent une telle vision de l'univers, alors il y a un concepteur informatique trop impliqué dans celle-ci. Ramène des souvenirs du film original, Tron

Chercheur de vérité007

Plus j'en apprends sur la QM et la relativité générale, il semble que nous soyons dans une sorte de simulation ou ma logique est-elle erronée parce que je ne suis pas vraiment un expert ?

Par example:
-La limite de vitesse de la lumière de l'univers ressemble plus à une limite/contrainte de traitement du processeur
-Au même effet, la courbure de l'espace-temps due à la masse est une indication de l'ajustement de la simulation pour restituer des quantités massives de matière (données) ? c'est-à-dire comme un ordinateur qui ralentit lorsqu'il y a trop de microprocessus.
-De plus, les particules quantiques n'ayant un état (effondrement de la fonction d'onde) qu'au moment où elles sont mesurées/observées semble être quelque chose qu'un jeu informatique bien conçu ferait. c'est-à-dire de ne rendre que ce qui est à l'écran.

Suis-je en train d'afficher une erreur logique évidente ici ? Peut-être un sophisme de corrélation/causalité ou un sophisme de généralisation hâtive ?

Bienvenue à votre contribution et heureux d'être prouvé le contraire.

Pelouse

Administrateur

Pour info, Rod ne dit pas cela, j'ai fait remarquer après avoir lu le rapport de Wikipédia, "Si les gens acceptent une telle vision de l'univers - alors il y a un concepteur informatique trop impliqué."

D'accord, si l'univers est une simulation de holodeck, il y a un grand concepteur et un contrôleur en charge, tout comme Star Trek, la série Next Generation. S'appliquant à l'astronomie, lorsque les débats faisaient rage entre les professeurs d'astronomie géocentrique comme Tycho Brahe et d'autres, l'astronomie du système solaire héliocentrique a finalement remporté le débat. Q : Cela s'est-il produit parce que le contrôleur holodeck a changé la simulation ? Quelqu'un/quelque chose a-t-il commencé à faire fonctionner le système solaire héliocentrique qui a permis à l'astronomie de déterminer la validité du système solaire héliocentrique par rapport au géocentrique ? Un autre exemple. Est-ce que quelqu'un/quelque chose a changé la simulation et a commencé à exécuter la simulation de la Terre ronde par rapport à l'édition précédente, la version Terre plate ? Je pourrais continuer encore et encore avec des exemples comme celui-ci en science.

Chercheur de vérité007

Pour info, Rod ne dit pas cela, j'ai fait remarquer après avoir lu le rapport de Wikipédia, "Si les gens acceptent une telle vision de l'univers - alors il y a un concepteur informatique trop impliqué."

D'accord, si l'univers est une simulation de holodeck, il y a un grand concepteur et un contrôleur en charge, tout comme Star Trek, la série Next Generation. S'appliquant à l'astronomie, lorsque les débats faisaient rage entre les professeurs d'astronomie géocentrique comme Tycho Brahe et d'autres, l'astronomie du système solaire héliocentrique a finalement remporté le débat. Q : Cela s'est-il produit parce que le contrôleur holodeck a changé la simulation ? Quelqu'un/quelque chose a-t-il commencé à faire fonctionner le système solaire héliocentrique qui a permis à l'astronomie de déterminer la validité du système solaire héliocentrique par rapport au géocentrique ? Un autre exemple. Est-ce que quelqu'un/quelque chose a changé la simulation et a commencé à exécuter la simulation de la Terre ronde par rapport à l'édition précédente, la version Terre plate ? Je pourrais continuer encore et encore avec des exemples comme celui-ci en science.

Si vous examinez certains des écrits gnostiques, je pense qu'ils en avaient une compréhension très intéressante. Si je me souviens bien, cet univers originel était infecté par ce qu'on appelait les Archontes. Un peu comme un virus AI négatif.

C'est pourquoi les pouvoirs en place poussent si fort pour l'IA et la technologie 5G. Je ne sais pas si vous avez déjà examiné tout cela, mais c'est pour le moins intéressant.


Contenu

La limite de Roche s'applique généralement à la désintégration d'un satellite due aux forces de marée induites par son primaire, le corps autour duquel il orbite. Les parties du satellite qui sont plus proches du primaire sont attirées plus fortement par la gravité du primaire que les parties qui sont plus éloignées, cette disparité éloigne effectivement les parties proches et éloignées du satellite les unes des autres, et si la disparité (combinée avec n'importe quel effets centrifuges dus à la rotation de l'objet) est plus grande que la force de gravité qui maintient le satellite ensemble, elle peut séparer le satellite. Certains satellites réels, à la fois naturels et artificiels, peuvent orbiter dans leurs limites de Roche car ils sont maintenus ensemble par des forces autres que la gravitation. Les objets reposant à la surface d'un tel satellite seraient emportés par les forces de marée. Un satellite plus faible, comme une comète, pourrait être brisé lorsqu'il passerait dans sa limite de Roche.

Étant donné que, dans la limite de Roche, les forces de marée dépassent les forces gravitationnelles qui pourraient autrement maintenir le satellite ensemble, aucun satellite ne peut fusionner gravitationnellement à partir de particules plus petites dans cette limite. En effet, presque tous les anneaux planétaires connus sont situés dans leur limite de Roche. (Les exceptions notables sont l'anneau E de Saturne et l'anneau de Phoebe. Ces deux anneaux pourraient être des restes du disque d'accrétion proto-planétaire de la planète qui n'a pas réussi à fusionner en petites lunes, ou à l'inverse se sont formés lorsqu'une lune est passée dans sa limite de Roche et s'est séparée. )

La limite de Roche n'est pas le seul facteur qui provoque la rupture des comètes. La division par contrainte thermique, la pression de gaz interne et la division par rotation sont d'autres moyens pour une comète de se diviser sous contrainte.

Le tableau ci-dessous montre la densité moyenne et le rayon équatorial pour les objets sélectionnés dans le système solaire. [ citation requise ]

Primaire Densité (kg/m 3 ) Rayon (m)
Soleil 1,408 696,000,000
Terre 5,513 6,378,137
Lune 3,346 1,737,100
Jupiter 1,326 71,493,000
Saturne 687 60,267,000
Uranus 1,318 25,557,000
Neptune 1,638 24,766,000

Les équations pour les limites de Roche relient le rayon orbital minimum soutenable au rapport des densités des deux objets et au rayon du corps primaire. Par conséquent, en utilisant les données ci-dessus, les limites Roche pour ces objets peuvent être calculées. Cela a été fait deux fois pour chacun, en supposant les extrêmes des cas de corps rigide et fluide. La densité moyenne des comètes est estimée à environ 500 kg/m 3 .

Le tableau ci-dessous donne les limites Roche exprimées en kilomètres et en rayons primaires. [ citation requise ] Le rayon moyen de l'orbite peut être comparé aux limites de Roche. Pour plus de commodité, le tableau répertorie le rayon moyen de l'orbite pour chacun, à l'exclusion des comètes, dont les orbites sont extrêmement variables et excentriques.

Corps Satellite Limite de Roche (rigide) Limite de Roche (fluide) Rayon orbital moyen (km)
Distance (km) R Distance (km) R
Terre Lune 9,492 1.49 18,381 2.88 384,399
Terre comète moyenne 17,887 2.80 34,638 5.43 N / A
Soleil Terre 556,397 0.80 1,077,467 1.55 149,597,890
Soleil Jupiter 894,677 1.29 1,732,549 2.49 778,412,010
Soleil Lune 657,161 0.94 1,272,598 1.83 149 597 890 environ
Soleil comète moyenne 1,238,390 1.78 2,398,152 3.45 N / A

Ces corps sont bien en dehors de leurs limites de Roche par divers facteurs, de 21 pour la Lune (au-dessus de sa limite de corps fluide de Roche) dans le cadre du système Terre-Lune, jusqu'à des centaines pour la Terre et Jupiter.

Le tableau ci-dessous donne l'approche la plus proche de chaque satellite sur son orbite divisée par sa propre limite de Roche. [ citation requise ] Encore une fois, les calculs de corps rigide et fluide sont donnés. Notez que Pan, Cordelia et Naiad, en particulier, peuvent être assez proches de leurs points de rupture réels.

En pratique, les densités de la plupart des satellites internes des planètes géantes ne sont pas connues. Dans ces cas, illustrés dans italique, des valeurs probables ont été supposées, mais leur réel La limite de Roche peut différer de la valeur indiquée.

La distance limite à laquelle un satellite peut s'approcher sans se briser dépend de la rigidité du satellite. À un extrême, un satellite complètement rigide conservera sa forme jusqu'à ce que les forces de marée le brisent. À l'autre extrême, un satellite très fluide se déforme progressivement, ce qui entraîne une augmentation des forces de marée, provoquant l'allongement du satellite, aggravant encore les forces de marée et provoquant sa rupture plus facilement.

La plupart des satellites réels se situeraient quelque part entre ces deux extrêmes, la résistance à la traction rendant le satellite ni parfaitement rigide ni parfaitement fluide. Par exemple, un astéroïde en tas de décombres se comportera plus comme un fluide qu'un solide rocheux, un corps glacé se comportera d'abord de manière assez rigide mais deviendra plus fluide à mesure que le réchauffement des marées s'accumulera et que ses glaces commenceront à fondre.

Mais notez que, comme défini ci-dessus, la limite de Roche fait référence à un corps maintenu ensemble uniquement par les forces gravitationnelles qui provoquent la fusion de particules autrement non connectées, formant ainsi le corps en question. La limite de Roche est aussi généralement calculée pour le cas d'une orbite circulaire, bien qu'il soit simple de modifier le calcul pour l'appliquer au cas (par exemple) d'un corps passant le primaire sur une trajectoire parabolique ou hyperbolique.

Calcul rigide-satellite Modifier

le corps rigide La limite de Roche est un calcul simplifié pour un satellite sphérique. Les formes irrégulières telles que celles de la déformation due aux marées sur le corps ou sur ses orbites primaires sont négligées. Il est supposé être en équilibre hydrostatique. Ces hypothèses, bien qu'irréalistes, simplifient grandement les calculs.

Cela ne dépend pas de la taille des objets, mais du rapport des densités. Il s'agit de la distance orbitale à l'intérieur de laquelle le matériau meuble (par exemple régolithe) sur la surface du satellite le plus proche du primaire serait retiré, et de même le matériau du côté opposé au primaire s'éloignera également du satellite plutôt que vers le satellite. .

Notez qu'il s'agit d'un résultat approximatif car la force d'inertie et la structure rigide sont ignorées dans sa dérivation.

La période orbitale ne dépend alors que de la densité du secondaire :

où G est la constante gravitationnelle. Par exemple, une densité de 3,346 g/cc (la densité de notre lune) correspond à une période orbitale de 2,552 heures.

Dérivation de la formule Modifier

Afin de déterminer la limite de Roche, considérons une petite masse u sur la surface du satellite le plus proche du primaire. Il y a deux forces sur cette masse u : l'attraction gravitationnelle vers le satellite et l'attraction gravitationnelle vers le primaire. Supposons que le satellite soit en chute libre autour du primaire et que la force de marée soit le seul terme pertinent de l'attraction gravitationnelle du primaire. Cette hypothèse est une simplification car la chute libre ne s'applique vraiment qu'au centre planétaire, mais suffira pour cette dérivation. [5]

Pour obtenir cette approximation, trouvez la différence d'attraction gravitationnelle du primaire sur le centre du satellite et sur le bord du satellite le plus proche du primaire : [ citation requise ]

La limite de Roche est atteinte lorsque la force gravitationnelle et la force de marée s'équilibrent. [ citation requise ]

ce qui donne la limite de Roche, d , comme

Le rayon du satellite ne doit pas apparaître dans l'expression de la limite, il est donc réécrit en termes de densités.

Substituer les masses dans l'équation de la limite de Roche, et annuler 4 π / 3 donne

qui peut être simplifiée à la limite de Roche suivante :

Limite de Roche, sphère de Hill et rayon de la planète Modifier

Remarque : La limite de Roche et la sphère de Hill sont complètement différentes l'une de l'autre mais sont toutes deux l'œuvre d'Édouard Roche. [ citation requise ]

Colline sphère d'un corps astronomique est la région dans laquelle il domine l'attraction des satellites alors que Limite de Roche est la distance minimale à laquelle un satellite peut s'approcher de son corps principal sans que la force de marée ne surmonte la gravité interne qui maintient le satellite ensemble. [ citation requise ]

Satellites fluides Modifier

Une approche plus précise pour le calcul de la limite de Roche prend en compte la déformation du satellite. Un exemple extrême serait un satellite liquide verrouillé par la marée en orbite autour d'une planète, où toute force agissant sur le satellite le déformerait en un sphéroïde allongé.

Le calcul est complexe et son résultat ne peut pas être représenté dans une formule algébrique exacte. Roche lui-même a dérivé la solution approximative suivante pour la limite de Roche :

Cependant, une meilleure approximation qui prend en compte l'aplatissement du primaire et la masse du satellite est :

où c / R est l'aplatissement du primaire. Le facteur numérique est calculé à l'aide d'un ordinateur.

La solution fluide convient aux corps qui ne sont que faiblement maintenus ensemble, comme une comète. Par exemple, l'orbite en décomposition de la comète Shoemaker-Levy 9 autour de Jupiter est passée à l'intérieur de sa limite de Roche en juillet 1992, la fragmentant en un certain nombre de morceaux plus petits. Lors de son approche suivante en 1994, les fragments se sont écrasés sur la planète. Shoemaker-Levy 9 a été observé pour la première fois en 1993, mais son orbite indiquait qu'il avait été capturé par Jupiter quelques décennies auparavant. [6]

Dérivation de la formule Modifier

Le cas du satellite fluide étant plus délicat que le cas rigide, le satellite est décrit avec quelques hypothèses simplificatrices. Tout d'abord, supposons que l'objet est constitué d'un fluide incompressible de densité constante ρ m > et le volume V qui ne dépendent pas de forces externes ou internes.

Lorsque M est beaucoup plus grand que m, ce sera proche de

La rotation synchrone implique que le liquide ne bouge pas et le problème peut être considéré comme statique. Par conséquent, la viscosité et le frottement du liquide dans ce modèle ne jouent pas de rôle, puisque ces quantités ne joueraient un rôle que pour un fluide en mouvement.

Compte tenu de ces hypothèses, les forces suivantes doivent être prises en compte :

  • La force de gravitation due au corps principal
  • la force centrifuge dans le système de référence rotatif et
  • le champ d'auto-gravitation du satellite.

Comme toutes ces forces sont conservatrices, elles peuvent être exprimées au moyen d'un potentiel. De plus, la surface du satellite est équipotentielle. Sinon, les différences de potentiel engendreraient des forces et des mouvements de certaines parties du liquide à la surface, ce qui contredit l'hypothèse du modèle statique. Compte tenu de la distance par rapport au corps principal, la forme de la surface qui satisfait à la condition équipotentielle doit être déterminée.

Comme l'orbite a été supposée circulaire, la force gravitationnelle totale et la force centrifuge orbitale agissant sur le corps principal s'annulent. Cela laisse deux forces : la force de marée et la force centrifuge de rotation. La force de marée dépend de la position par rapport au centre de masse, déjà considérée dans le modèle rigide. Pour les petits corps, la distance des particules liquides du centre du corps est petite par rapport à la distance au corps principal. Ainsi, la force de marée peut être linéarisée, ce qui donne la même formule pour FT comme indiqué ci-dessus.

Alors que cette force dans le modèle rigide ne dépend que du rayon r du satellite, dans le cas fluide, tous les points de la surface doivent être considérés, et la force de marée dépend de la distance d du centre de masse à une particule donnée projetée sur la ligne joignant le satellite et le corps principal. Nous appelons d les distance radiale. Puisque la force de marée est linéaire en d, le potentiel associé est proportionnel au carré de la variable et pour m ≪ M on a

De même, la force centrifuge a un potentiel

pour la vitesse angulaire de rotation ω .

On veut déterminer la forme du satellite pour lequel la somme du potentiel d'autogravitation et VT + VC est constant à la surface du corps. En général, un tel problème est très difficile à résoudre, mais dans ce cas particulier, il peut être résolu par une estimation habile en raison de la dépendance carrée du potentiel de marée sur la distance radiale d En première approximation, on peut ignorer le potentiel centrifuge VC et ne considérer que le potentiel de marée VT.

Étant donné que le potentiel VT ne change que dans un sens, c'est à dire. la direction vers le corps principal, on peut s'attendre à ce que le satellite prenne une forme axialement symétrique. Plus précisément, on peut supposer qu'il prend la forme d'un solide de révolution. Le potentiel propre à la surface d'un tel solide de révolution ne peut dépendre que de la distance radiale au centre de masse. En effet, l'intersection du satellite et d'un plan perpendiculaire à la ligne joignant les corps est un disque dont la frontière par nos hypothèses est un cercle de potentiel constant. Si la différence entre le potentiel d'auto-gravitation et VT constante, les deux potentiels doivent dépendre de la même manière de d. En d'autres termes, le potentiel propre doit être proportionnel au carré de d. On peut alors montrer que la solution équipotentielle est un ellipsoïde de révolution. Étant donné une densité et un volume constants, le potentiel d'un tel corps ne dépend que de l'excentricité ε de l'ellipsoïde :

La fonction sans dimension F doit être déterminé à partir de la solution précise du potentiel de l'ellipsoïde

et, étonnamment, ne dépend pas du volume du satellite.

Bien que la forme explicite de la fonction F semble compliqué, il est clair que nous pouvons choisir la valeur de ε pour que le potentiel VT est égal à VS plus une constante indépendante de la variable d. Par inspection, cela se produit lorsque

Cette équation peut être résolue numériquement. Le graphique indique qu'il existe deux solutions et donc la plus petite représente la forme d'équilibre stable (l'ellipsoïde avec la plus petite excentricité). Cette solution détermine l'excentricité de l'ellipsoïde de marée en fonction de la distance au corps principal. La dérivée de la fonction F a un zéro où l'excentricité maximale est atteinte. Cela correspond à la limite de Roche.

Plus précisément, la limite de Roche est déterminée par le fait que la fonction F, qui peut être considérée comme une mesure non linéaire de la force serrant l'ellipsoïde vers une forme sphérique, est limitée de sorte qu'il existe une excentricité à laquelle cette force de contraction devient maximale. Comme la force de marée augmente lorsque le satellite s'approche du corps principal, il est clair qu'il existe une distance critique à laquelle l'ellipsoïde est déchiré.

L'excentricité maximale peut être calculée numériquement comme le zéro de la dérivée de F'. On obtient

ce qui correspond au rapport des axes de l'ellipsoïde 1:1,95. Insérer ceci dans la formule de la fonction F on peut déterminer la distance minimale à laquelle l'ellipsoïde existe. C'est la limite de Roche,

Étonnamment, l'inclusion du potentiel centrifuge fait remarquablement peu de différence, bien que l'objet devienne un Roche ellipsoïde, un ellipsoïde triaxial général avec tous les axes ayant des longueurs différentes. Le potentiel devient une fonction beaucoup plus compliquée des longueurs d'axe, nécessitant des fonctions elliptiques. Cependant, la solution se déroule comme dans le cas de la marée seule, et nous trouvons

Les rapports entre la direction polaire et la direction de l'orbite et les axes de direction principale sont de 1:1,06:2,07.


Existe-t-il un centre de l'univers ?

Par : Maria Temming 21 juillet 2014 0

Recevez des articles comme celui-ci dans votre boîte de réception

Une poignée de galaxies lointaines imagées dans la couverture ultraviolette du projet Hubble Ultra Deep Field.
NASA, ESA, H. Teplitz et M. Rafelski (IPAC/Caltech), A. Koekemoer (STScI), R. Windhorst (Arizona State University) et Z. Levay (STScI)

En un mot, non. L'univers a commencé comme une singularité (un point infiniment petit avec une densité infinie) qui a commencé à s'étendre au moment du Big Bang. Cependant, le Big Bang n'était pas une explosion normale à partir d'un seul point dans l'espace. Plutôt l'espace lui-même était en expansion, tout dans l'univers s'éloignant de tout le reste. On observe aujourd'hui un univers qui apparaît assez isotrope c'est-à-dire qu'il se ressemble fondamentalement dans toutes les directions. En général, les galaxies le long de n'importe quelle ligne de visée depuis la Terre sont réparties de la même manière. Il n'y a pas de direction « préférée » dans l'univers, ce qui indique qu'il n'y a pas de centre inhérent à l'univers.

le observable univers est une histoire quelque peu différente. L'univers observable est la région de l'univers que nous pouvons observer, définie par la distance parcourue par la lumière depuis le Big Bang il y a 13,8 milliards d'années. Mais cela fait ne pas signifie que la Terre est le centre de l'univers. Si vous deviez vous déplacer vers une autre étoile à 10 milliards d'années-lumière, vous seriez toujours le centre de votre propre univers observable sensiblement différent.


Comment mesurer des choses qui sont astronomiquement lointaines

Pour réviser cet article, visitez Mon profil, puis Afficher les histoires enregistrées.

Pour réviser cet article, visitez Mon profil, puis Afficher les histoires enregistrées.

Si vous voulez trouver la taille d'un ballon de basket, vous pouvez utiliser un mètre normal pour mesurer le diamètre. Vous devriez obtenir une valeur d'environ 0,24 mètre. S'il vous plaît, n'utilisez pas de pouces, ils sont simplement plus difficiles à gérer. Quoi qu'il en soit, vous n'utilisez probablement pas d'unités impériales puisqu'il n'y a que trois pays qui utilisent officiellement ce système : Myanmar, Libéria et. les États Unis. Il est temps de passer au système métrique comme tout le monde.

Mais que faire si vous voulez la distance de New York à Los Angeles ? Sure, you can still use meters with a distance of about 3.93 x 10 6 meters or you could use kilometers (3,930 km). But really, kilometers is just a nice way of using meters. It's the same unit of distance, just with a prefix. Units of meters (or kilometers) works well enough for things as big as the Earth, with a radius of about 6.37 x 10 6 meters.

However, outside of the Earth stuff starts getting super big. With very large things it's often useful to use very large distance units. Let's go over the three most common distance units in astronomy.

The name of this unit sort of makes it sound more important than it is—it's still important, but not for the rest of the universe. In short, the Astronomical Unit (AU) is the distance from the Earth to the Sun. That's not technically correct since the Earth's orbit around the Sun isn't perfectly circular. Let's just say the AU is the average distance to the Sun—that will work for now.

With the AU, it's much easier to measure distances in the solar system. For instance, the distance from the Sun to Mars is about 1.52 AU and the distance to Pluto is around 40 AU. But there is an even better reason to describe distances in AU than just convenience. Humans first used the Astronomical Unit because we didn't know the distance from the Earth to the Sun. Yes, that sounds crazy, but it's true.

So, here's the deal. The ancient Greeks did some awesome measurements of the Earth and moon (and they tried to get the distance to the Sun)—but that one's pretty tough. But even without an accurate value for the Sun-Earth distance, later astronomers could still do some nice modeling of the solar system. In fact Johannes Kepler found the the time it takes a planet to orbit the Sun was proportional to its distance to the Sun (again, technically these orbits are ellipses). Using this, he determined the distance from other planets to the Sun in terms of the Earth's distance. Boom---that gets you the distance in AU.

Of course no one wants to stop and leave all the solar system stuff in terms of AU. We really want the conversion factor between AU and meters. To get this, you need to actually measure the Earth-Sun distance. That's not such an easy task, but there is one way to get a reasonable value—use the transit of Venus. This happens when the planet Venus passes between the Earth and the Sun (it doesn't happen as often as you would think). By measuring the exact start and finish time of the transit from different parts of the Earth you can get a value for AU in terms of the size of the Earth (which we mostly know). Here are all the details of that calculation in case you are interested.


How Close to the Big Bang Can We See?

Similar announcements seem to crop up every few months, bringing up the question of just how much further back in time and deeper into space we will ever be able to look. (Because other galaxies are moving away from us, the most distant are also the oldest.) Should z8_GND_5296 settle in for a nice, long reign as the farthest confirmed galaxy, or is it possible to see even more distant objects by spotting light that dates even closer to big bang? How close to the big bang scientists possibly see?

Candidates Aplenty

The short answer is that z8_GND_5296's days are numbered. Over the next several years, new observing methods and telescopes should turn up plenty of contenders. And before the decade is out, we might even succeed in looking all the way back into the universe's first few hundred million years, when the very first stars and galaxies are thought to have formed. But the big question is: What will these ancient cosmic objects be like?

"If galaxies are there and are bright enough to see, we will see them. but are they bright enough?" says Steven Finkelstein, an assistant professor of astronomy at the University of Texas at Austin and lead author of the Nature paper describing z8_GND_5296.

Jennifer Lotz, an astronomer with the Space Telescope Science Institute (STScI) in Baltimore, agrees: "We don't know what's happening in the first half-billion years of the universe."

STScI helps operate the Hubble Space Telescope, which has led the way in discovering far-off galaxies and other objects. Very little light from ancient galaxies makes its way to Earth, giving telescopes like Hubble a needle-in-the-haystack task. "It's that little pinprick of light coming from the very first galaxies that we can hope to see," Lotz says.

And with so little evidence, it's hard to be sure what you're seeing. Z8_GND_5296 turned up in one of Hubble's sky surveys, and over time these searches have netted many contenders for the title of most distant galaxy. But many of these candidates have not been confirmed through spectroscopy&mdashthe gold standard for measuring astronomical distances.

Spectrometers identify the signatures of chemical elements in light, which can help to tell you what a star or galaxy is made of. However, as the universe expands, light waves get stretched out, and their signatures move deeper into the redder portion of the electromagnetic spectrum where light waves have longer wavelengths. The extent to which these signatures are "redshifted" reveals the distance the light has traveled.

To confirm z8_GND_5296's distance, Finkelstein's group used a sensitive infrared spectrometer on the W.M. Keck Observatory in Hawaii. But measuring redshift for galaxies out in z8_GND_5296's neck of the cosmic woods is tough work. Light carrying a preferred spectroscopic signature known as a Lyman-alpha emission line&mdashfrom hydrogen, and made in abundance when stars form&mdashtends to get absorbed by hydrogen gas between us and the emitting galaxy, especially when that galaxy is very distant. In fact, 42 of the 43 candidates Hubble turned up in its survey displayed no Lyman-alpha lines. Only z8_GND_5296 had one.

Deeper and Deeper

To give astronomers a leg up in finding and confirming these candidate distant galaxies, NASA recently inaugurated its Frontier Fields project to hunt for galaxies up to 100 times fainter than what Hubble and other space observatories can normally glimpse. Frontier Fields will take advantage of naturally occurring cosmic "zoom lenses," created by the gravitational warping of background light by foreground galaxy clusters.

"We'll be looking at these really whopping massive clusters of galaxies that act like natural telescopes and magnify galaxies behind them," says Lotz, who is also a Frontier Fields principal investigator. "These objects will appear much brighter than they actually are, and we might get lucky that some are bright enough to do spectroscopic confirmation with Lyman-alpha."

If not, astronomers might try using other spectroscopic lines to nail down galactic distances. One of these being tested is a carbon line, which astronomers are using at a giant new ground-based facility called the Atacama Large Millimeter/submillimeter Array (ALMA) in Chile. Five of the six galaxy clusters Frontier Fields will probe were specifically selected to fall within ALMA's field of view.

Yet the real game changer in hunting for ever more distant objects will be the James Webb Space Telescope. The biggest, baddest next-generation space telescope is slated to launch in 2018. James Webb should be able to look back as far as perhaps 100 million years after the big bang, easily scrounging up examples of the first galaxies theorized to have taken shape about 400 million years into the universe's existence. And James Webb will not be alone in plumbing such cosmic depths. Three mammoth ground-based telescopes&mdashthe Giant Magellan Telescope, the Thirty Meter Telescope, and the European Extremely Large Telescope, all scheduled for first light in the early 2020s&mdashare built to peer into the beginnings of the universe.

The Limit

As astronomers keep probing further back in time, at some point there will be no galaxies to see at all. That will be because scientists will reach a point at which the universe has not yet spawned them. At that point, the goal becomes seeing the first stars. "We think the first stars formed sort of on their own, not in galaxies," Finkelstein says.

Yet no matter how advanced our telescopes become, it's an open question whether scientists could detect something as small as a star at such vast distances. Galaxies contain millions of stars. Spotting a galaxy as opposed to a single sun, then, it like spotting a city at night versus seeing a single lit window. Fortunately, the very first stars are expected to have been extremely massive and thus ended their lives as cataclysmic, super-bright supernovas, which we do have a prayer of seeing, Finkelstein says.

And though we may spy flickers of the first stars, you don't have to go much deeper into cosmic history to encounter the ultimate limit to how far back we can ever see. As it turns out, we have already "seen" it. This cosmic dead end occurs at about 380,000 years post-big bang and is known as the epoch of recombination. Before this time, the universe was still too hot for electrons and protons to pair up and form the most basic atom, hydrogen. And unbound electrons scatter light. So, until those first hydrogen atoms came onto the scene, scientists think, the cosmos was an opaque soup of energy. Only afterward did the universe became transparent to light&mdashlight that was free to stream into our telescopes.

The relic light from this recombination event is known as the cosmic microwave background radiation. We observe it as a diffuse, essentially featureless, uniform glow from all over the sky, and it was most recently charted by the European Space Agency's Planck spacecraft.

"In terms of seeing light, we've seen the cosmic microwave background," Finkelstein says. "So, technically, we've seen all the way back."


A negative temperature can only be achieved with an upper limit for the energy

The meaning of a negative absolute temperature can best be illustrated with rolling spheres in a hilly landscape, where the valleys stand for a low potential energy and the hills for a high one. The faster the spheres move, the higher their kinetic energy as well: if one starts at positive temperatures and increases the total energy of the spheres by heating them up, the spheres will increasingly spread into regions of high energy. If it were possible to heat the spheres to infinite temperature, there would be an equal probability of finding them at any point in the landscape, irrespective of the potential energy. If one could now add even more energy and thereby heat the spheres even further, they would preferably gather at high-energy states and would be even hotter than at infinite temperature. The Boltzmann distribution would be inverted, and the temperature therefore negative. At first sight it may sound strange that a negative absolute temperature is hotter than a positive one. This is simply a consequence of the historic definition of absolute temperature, however if it were defined differently, this apparent contradiction would not exist.

Temperature as a game of marbles: The Boltzmann distribution states how many particles have which energy, and can be illustrated with the aid of spheres that are distributed in a hilly landscape. At positive temperatures (left image), as are common in everyday life, most spheres lie in the valley at minimum potential energy and barely move they therefore also possess minimum kinetic energy. States with low total energy are therefore more likely than those with high total energy – the usual Boltzmann distribution. At infinite temperature (centre image) the spheres are spread evenly over low and high energies in an identical landscape. Here, all energy states are equally probable. At negative temperatures (right image), however, most spheres move on top of the hill, at the upper limit of the potential energy. Their kinetic energy is also maximum. Energy states with high total energy thus occur more frequently than those with low total energy – the Boltzmann distribution is inverted.

This inversion of the population of energy states is not possible in water or any other natural system as the system would need to absorb an infinite amount of energy – an impossible feat! However, if the particles possess an upper limit for their energy, such as the top of the hill in the potential energy landscape, the situation will be completely different. The researchers in Immanuel Bloch’s and Ulrich Schneider’s research group have now realised such a system of an atomic gas with an upper energy limit in their laboratory, following theoretical proposals by Allard Mosk and Achim Rosch.

In their experiment, the scientists first cool around a hundred thousand atoms in a vacuum chamber to a positive temperature of a few billionths of a Kelvin and capture them in optical traps made of laser beams. The surrounding ultrahigh vacuum guarantees that the atoms are perfectly thermally insulated from the environment. The laser beams create a so-called optical lattice, in which the atoms are arranged regularly at lattice sites. In this lattice, the atoms can still move from site to site via the tunnel effect, yet their kinetic energy has an upper limit and therefore possesses the required upper energy limit. Temperature, however, relates not only to kinetic energy, but to the total energy of the particles, which in this case includes interaction and potential energy. The system of the Munich and Garching researchers also sets a limit to both of these. The physicists then take the atoms to this upper boundary of the total energy – thus realising a negative temperature, at minus a few billionths of a kelvin.


Rapid acceleration and deceleration can be lethal to the human organism

Even Orion won’t represent the peak of our speed potential, though. “There is no real practical limit to how fast we can travel, other than the speed of light,” says Bray. Light zips along at about a billion kilometres per hour. Can we hope to safely bridge the gap from 40,000kph to those speeds?

Surprisingly, speed – defined as a rate of motion – in of itself is not at all a problem for us physically, so long as it’s relatively constant and in one direction. Therefore, humans should – in theory – be able to travel at rates just short of the “Universe’s speed limit”: the speed of light.

But assuming we can overcome the considerable technological obstacles in building faster spacecraft, our fragile, mostly-water bodies will have to contend with significant new hazards that come with such high-speed travel. Speculative dangers could arise, too, if humans achieve faster-than-light travel, either by exploiting loopholes in known physics or through paradigm-shattering discoveries.

Withstanding G-forces

However we attain speeds in excess of 40,000kph, we will have to ramp up to (and down from) them patiently. Rapid acceleration and deceleration can be lethal to the human organism: witness the bodily trauma in car crashes as we go from a mere tens-of-kilometres-per-hour clip to zero in the span of seconds. The reason? A property of the Universe known as inertia, whereby any object with mass resists change to its state of motion. The concept is famously expressed in Newton’s first law of motion as “an object at rest stays at rest and an object in motion stays in motion with the same speed and in the same direction unless acted upon by an outside force”.

“For the human body, constant is good,” explains Bray. “It’s acceleration we have to worry about.”

Pilots are tested in centrifuges such as these to see how many Gs their bodies can withstand (Credit: Science Photo Library)

About a century ago, the invention of sturdy aircraft that could manoeuvre at speed led to pilots reporting strange symptoms related to speed and directional changes. These included temporary vision loss and the sensation of either leadenness or weightlessness. The cause is G-forces, otherwise called gravitational forces, or even simply Gs. These are units of accelerative force upon a mass, such as a human body. One G is equal to the pull of Earth’s gravity toward the planet’s centre at 9.8 metres per second squared (at sea level).

G-forces experienced vertically, from head to toe or vice versa, are the ones that can be truly bad news for pilots and passengers. Blood pools in the heads of those undergoing negative Gs, from toe to head, causing an engorged sensation like when we do a handstand. “Red out” sets in as blood-swelled, translucent lower eyelids rise up to cover the pupils. Conversely, when acceleration is positive, from head down to foot, the eyes and brain become starved of oxygen as blood collects in the lower extremities. Dimmed vision called “grey out” initially occurs, followed by total vision loss, or “blackout”. These high Gs can progress to outright faints, dubbed G-induced loss of consciousness (GLOC). Many aviation deaths result from pilots blacking out and crashing.


Heritage of antiquity and the Middle Ages

The physical sciences ultimately derive from the rationalistic materialism that emerged in classical Greece, itself an outgrowth of magical and mythical views of the world. The Greek philosophers of the 6th and 5th centuries bce abandoned the animism of the poets and explained the world in terms of ordinarily observable natural processes. These early philosophers posed the broad questions that still underlie science: How did the world order emerge from chaos? What is the origin of multitude and variety in the world? How can motion and change be accounted for? What is the underlying relation between form and matter? Greek philosophy answered these questions in terms that provided the framework for science for approximately 2,000 years.


Voir la vidéo: Коп по Войне. Бальга. Тевтонский Орден. Третий Рейх. Бальга в СССР. Истории Профессора (Novembre 2022).