La maladie est présente partout dans le monde ; sa prévalence chez l’être humain est variable. Pour les adultes présentant une séropositivité (et donc une immunité potentiellement affaiblie), la prévalence est faible en Asie ou en Amérique, elle est inférieure à 30 % dans les pays scandinaves et dans le Royaume-Uni, elle va de 20 à 50 % en Europe du sud ainsi que dans les régions humides de l’Afrique et elle va de 50 à 70 % en Europe de l’Ouest continentale (80 % en France).
Chez le sujet immunocompétent, l'infection est bénigne et reste inapparente, ou prend l'aspect d'un simple syndrome grippal qui guérit spontanément en quelques jours. La toxoplasmose est grave en revanche chez les sujets immunodéprimés (en particulier ceux infectés par le VIH) et lorsqu'elle est transmise de la mère au fœtus : une enquête menée en 1995 en France évaluait la séroprévalence à 54 % parmi les femmes enceintes. Le risque et la gravité que le fœtus soit atteint dépend du moment de la grossesse. Le risque est inférieur à 2 % avant deux mois de grossesse mais dans ce cas l’atteinte fœtale est grave. Il atteint 70 % en fin de grossesse et le fœtus fera essentiellement des lésions oculaires.
La toxoplasmose congénitale expose le fœtus à un risque malformatif qui justifie en France un dépistage obligatoire de la toxoplasmose chez la femme au cours de l'examen prénuptial et, chez les femmes enceintes non immunisées, par une sérologie réalisée tous les mois jusqu'à l'accouchement.
En astrophysique, un trou noir est un objet dont l’existence est prédite par la théorie de la relativité générale. Un trou noir crée autour de lui une région de l’espace-temps dont la courbure est telle qu’au delà d’une limite appelée « horizon des événements, » rien, pas même la lumière, ne peut s’échapper. Malgré l’impossibilité fondamentale de voir un trou noir en tant que tel, leur existence dans l’univers est bien admise suite à de nombreuses observations indirectes, notamment de microquasars et de noyaux actifs de galaxies.
Depuis la mission Voyager 2 et surtout la mission Cassini-Huygens arrivée en orbite saturnienne en 2004, Encélade est réputé pour posséder plusieurs caractéristiques étonnantes, dont une géologie très complexe jusque là insoupçonnée, et une activité qui reste toujours actuellement difficile à expliquer pour un corps de si petite taille (500 km de diamètre en moyenne). La sonde Cassini a d’ailleurs observé à sa surface des jets, qui pourraient être semblables à des geysers, et qui semblent indiquer la présence d’eau liquide sous la surface.
Encélade tourne autour de Saturne au sein de l’anneau le plus externe et le plus ténu de tous, appelé anneau E ; cet anneau serait alimenté en permanence en particules par les « éruptions volcaniques » actuelles (ou récentes) d’Encélade.
Ce satellite est l’un des quatre seuls objets du système solaire (avec le satellite de JupiterIo, celui de Neptune, Triton, et bien sûr la Terre) sur lesquels des éruptions ou des éjections de matière ont pu être directement observées.
L’éruption fut précédée par deux mois de séries de tremblements de terre et de jets de vapeur résultant de l’infiltration de magma à faible profondeur en dessous de la montagne. Le magma provoqua un réseau de fractures et de déformations dans la face nord du volcan. Le à 8 h 32, un tremblement de terre déclencha un glissement de terrain majeur sur la face nord, exposant du même coup la roche à moitié en fusion, riche en gaz et en vapeur, à des pressions plus basses. En moins de vingt secondes le magma explosa sous forme d’un mélange de matériaux volcaniques très chauds. Cette nuée ardente se dirigea vers le lac Spirit à une vitesse telle qu’elle dépassa rapidement le glissement de terrain de la face nord.
Une colonne de cendres s’éleva alors dans l’atmosphère pour retomber sur le territoire de onze États américains. Dans le même temps, la neige et la glace de plusieurs glaciers présents sur le sommet se mirent à fondre, causant d’importantes coulées de boue, les lahars, qui atteignirent le lit de la rivière Columbia. Des épisodes volcaniques suivirent le lendemain, ainsi que des éruptions moins destructrices au cours de l'année 1980.
On dénombra 57 morts, dont le géologue David A. Johnston. Des milliers d’animaux furent tués. Près de trois milliards de mètres cubes de roches (l’équivalent d’un cube de 1 400 m de côté) dévalèrent en avalanche le versant nord et comblèrent en grande partie la vallée de la rivière Toutle. Sur une étendue de 380 km2, les forêts furent remplacées par des collines arides et grises. Les dégâts furent estimés à 2 ou 3 milliards de dollars US de l'époque et le mont Saint Helens affichait désormais une plaie béante sur sa face nord. La zone est depuis préservée en l’état, dans le cadre du Mount St. Helens National Volcanic Monument.
Ce théorème permet notamment de calculer l’une de ces longueurs à partir des deux autres. Il est nommé d’après Pythagore de Samos, philosophe de la Grèce antique. Cependant le résultat était connu plus de mille ans auparavant en Mésopotamie, et, même si les mathématiciens grecs en connaissaient probablement une démonstration avant Euclide, auteur dans ses Éléments de la plus ancienne qui nous soit parvenue, rien ne permet de l'attribuer à Pythagore. Par ailleurs le résultat a vraisemblablement été découvert indépendamment dans plusieurs autres cultures.
Les premières démonstrations historiques reposent en général sur des méthodes de calcul d’aire par découpage et déplacement de figures géométriques. Inversement, la conception moderne de la géométrie euclidienne est fondée sur une notion de distance qui est définie pour respecter ce théorème.
Divers autres énoncés généralisent le théorème à des triangles quelconques, à des figures de plus grande dimension telles que les tétraèdres, ou en géométrie non euclidienne comme à la surface d’une sphère.
En astronomie, on appelle régions HII des nébuleuses à émission constituées de nuages principalement composés d'hydrogène et dont la plupart des atomes sont ionisés, qui s'étendent parfois sur plusieurs années-lumière de distance. L'ionisation est produite par la proximité d'une ou plusieurs étoiles très chaudes, de type spectral O ou B, qui rayonnent fortement dans l'ultraviolet extrême, ionisant ainsi le gaz alentour, à partir duquel ces étoiles se sont à l'origine formées.
Les régions HII tirent leur nom de la présence en grande quantité d'hydrogène ionisé, noté [HII] (prononcer « hache deux »), à ne pas confondre avec l'hydrogène moléculaire (H2), et l'hydrogène neutre (HI).
Ces nuages de gaz ionisé sont visibles à de très grandes distances, et l'étude des régions HII extragalactiques est fondamentale pour déterminer les distances et la composition chimique des autres galaxies.
Le paludisme, également appelé malaria, est une parasitose due à un protozoaire, transmise par la piqûre d’un moustique appelé anophèle, qui se reproduit dans les zones marécageuses. Il provoque des fièvres intermittentes.
En 1931, il était encore présent en France, par exemple dans le marais poitevin, le golfe du Morbihan et en Camargue. Aujourd’hui, il est la cause d’environ deux millions de morts chaque année dans le monde, principalement dans les régions tropicales et en Afrique sub-saharienne. Il n’existe aucun vaccin à ce jour.
La métathèse est une réaction chimique se traduisant par l'échange d'un ou plusieurs atomes entre espèces chimiques structuralement apparentées, conduisant sur le plan formel à des composés dans lesquels les liaisons des différents types sont en même nombre et de même nature, ou presque, que dans les réactifs.
La relativité générale est une théorie relativiste de la gravitation, c’est-à-dire qu’elle décrit l’influence sur le mouvement des astres de la présence de matière et, plus généralement d'énergie, en tenant compte des principes de la relativité restreinte. La relativité générale englobe et supplante la théorie de la gravitation universelle d’Isaac Newton qui en représente la limite aux petites vitesses (comparées à la vitesse de la lumière) et aux champs gravitationnels faibles.
La relativité générale est principalement l’œuvre d'Albert Einstein, dont elle est considérée comme la réalisation majeure, qui l’a élaborée entre 1907 et 1915. Les noms de Marcel Grossmann et de David Hilbert lui sont également associés, le premier ayant aidé Einstein à se familiariser avec les outils mathématiques nécessaires à la compréhension de la théorie (la géométrie différentielle), le second ayant franchi conjointement avec Einstein les dernières étapes menant à la finalisation de la théorie après que ce dernier lui eut présenté dans le courant de l’année 1915 les idées générales de sa théorie.
La relativité générale est basée sur des concepts radicalement différents de ceux de la gravitation newtonienne. Elle stipule notamment que la gravitation n’est pas une force, mais est la manifestation de la courbure de l’espace (en fait de l’espace-temps), courbure elle-même produite par la distribution de matière. Cette théorie relativiste de la gravitation donne lieu à des effets absents de la théorie newtonienne mais vérifiés, comme l’expansion de l'Univers, ou potentiellement vérifiables, comme les ondes gravitationnelles et les trous noirs. Aucun des nombreux tests expérimentaux effectués à ce jour (2008) n’a pu la mettre en défaut, à l’exception possible de l’anomalie Pioneer qui pourrait être la première indication d’un écart entre les phénomènes observés et la relativité générale, quoique d’autres interprétations de ce phénomène soient envisageables.
L'acide chlorhydrique, connu également dans l'histoire sous le nom d'acide muriatique (ce nom est antérieur à la découverte du chlore et de la formule chimique HCl) a été découvert par l'alchimisteJabir Ibn Hayyan au voisinage de l'an 800. C'est un produit chimique qui a été fréquemment utilisé dans l'histoire depuis les débuts de la chimie. Au Moyen Âge, il était utilisé par les alchimistes dans leur quête de la pierre philosophale (sous le nom d'« esprit de sel » ou acidum salis). Il fut ensuite utilisé par de nombreux scientifiques, parmi lesquels Glauber, Priestley ou Davy, qui contribuèrent à établir la chimie moderne.
Au cours de la révolution industrielle, l'acide chlorhydrique devint un réactif chimique industriel important utilisé dans de nombreuses applications, notamment pour la production à grande échelle de composés organiques comme le chlorure de vinyle pour le PVC, ou comme le 4,4'-MDI/Diisocyanate de toluène pour le polyuréthane, ainsi que pour des applications à plus petite échelle comme la production de gélatine ou le traitement du cuir. La production d'acide chlorhydrique est voisine à l'heure actuelle de 20 millions de tonnes par an.
La pluie d'animaux est un phénomène météorologique extraordinaire de chute du ciel de nombreux animaux, souvent d'une seule espèce. Cette précipitation atypique est accompagnée ou non d'une averse classique. On trouve témoignage du phénomène dans de nombreux pays et à de nombreuses époques, et il a suscité mystères et controverses à travers l'Histoire. Ce type de phénomène n'ayant jamais été observé directement par des climatologues, les différentes explications proposées sont davantage du domaine de la spéculation.
Ce sont le plus souvent des poissons et des grenouilles qui se trouvent dans ces « pluies », mais certaines espèces d'oiseaux sont aussi fréquemment mentionnées. Le phénomène est parfois si violent que les animaux retombent déchiquetés. D'autres fois, les animaux survivent à cette chute, en particulier les poissons, ce qui laisse penser que le laps de temps séparant le « décollage » et le retour au sol est relativement faible. De nombreux témoignages décrivent les grenouilles tombées du ciel comme parfaitement intactes. Il arrive aussi fréquemment que les animaux tombent du ciel gelés, parfois emprisonnés dans la glace, ce qui tendrait à montrer que certains animaux terrestres ou aquatiques peuvent être aspirés par des trombes à des altitudes élevées, où la température est inférieure à 0 °C.
Ce phénomènemétéorologique a un pouvoir destructeur supérieur à celui d'un cyclone tropical au mètre carré, mais est de durée et d'étendue limitées : il concerne un corridor de quelques centaines de mètres de large sur quelques kilomètres de long. Les tornades engendrent les vents les plus forts signalés à la surface du globe, tuant chaque année de 300 à 400 personnes (selon une estimation de l'Organisation météorologique mondiale), dont 150 aux États-Unis.
Elles se produisent partout où les conditions sont favorables. Les zones rurales comme les villes peuvent subir ce phénomène. La plus grande densité nationale est, de manière surprenante, au Royaume-Uni mais ne représente cependant qu'une trentaine de tornades chaque année. La zone la plus active mondialement est la région du bassin du fleuve Mississippi et des Grandes Plaines où les tornades sont en général très puissantes. Les États du Texas, de l'Oklahoma, du Kansas et du Nebraska ont d'ailleurs acquis le surnom de « Tornado Alley » avec un tiers des tornades aux États-Unis d'Amérique.
Un nanotube est une structure cristalline particulière, de forme tubulaire, creuse et close, composée d'atomes disposés régulièrement en pentagones, hexagones et/ou heptagones, obtenue à partir de certains matériaux, en particulier le carbone et nitrure de bore.
Proches des fullerènes, les nanotubes de carbone sont l'un des premiers produits industriels du domaine des nanotechnologies. Ils permettent de réaliser des transistors à un niveau de miniaturisation jamais atteint jusqu'à maintenant.
Les sondes spatiales Voyager 1 et 2 ont réalisé depuis 1977 une moisson d’observations astronomiques qui ont plus d’une fois mis en question les théories planétologiques, au cours d’une épopée spatiale d’une durée exceptionnelle, qui se poursuit désormais vers l’espace interstellaire. Elles ont exploré le voisinage de Jupiter, Saturne, Uranus, Neptune et 48 de leurs lunes.
Le Big Bang désigne l’époque dense et chaude qu’a connue l’univers il y a environ 13,7 milliards d’années, ainsi que l’ensemble des modèles cosmologiques qui la décrivent, sans que cela préjuge de l’existence d’un « instant initial » ou d’un commencement à son histoire.
Cette phase marquant le début de la dilatation et de l’expansion de l’univers, abusivement comparé à une explosion, a été désignée pour la première fois, et ce de façon assez dédaigneuse, sous ce terme de Big Bang par le physicienanglaisFred Hoyle lors d’un programme radio de la BBC, The Nature of Things (littéralement « La nature des choses »), dont le texte fut publié en 1950. Hoyle ne décrivait pas la théorie, mais se moquait du concept car il proposait un autre modèle cosmologique, aujourd’hui abandonné, la théorie de l’état stationnaire, dans lequel l’univers n’a pas connu de phase dense et chaude. Malgré ce côté initialement méprisant, l’expression est restée et a perdu sa connotation péjorative et ironique pour devenir le nom scientifique et vulgarisé de l’époque d’où est issu l’univers tel que nous le connaissons.
Le terme de Big Bang chaud (Hot Big Bang) est encore parfois utilisé pour souligner le fait que le modèle prédit que l’univers était plus chaud quand il était plus dense. Il se réfère au concept de Big Bang décrit ci-dessous. Le qualificatif de « chaud » était parfois ajouté car le fait que l’on puisse associer une notion de température à l’univers dans son ensemble n’était pas encore bien compris au moment où le modèle a été proposé au milieu du XXe siècle.
La corrosion aqueuse est un phénomène dont l’impact économique est très important, nécessitant une grande variété de moyens de protection des métaux. La corrosion désigne l’altération par l’environnement d’un objet manufacturé.
Dans l’univers, les étoiles ne sont généralement pas isolées mais regroupées au sein de vastes ensembles appelés galaxies. Celles-ci incluent aussi les gaz et poussières du milieu interstellaire et probablement de grandes quantités de matière noire. De nombreux indices suggèrent que le centre de nombreuses galaxies est occupé par un trou noir de masse importante. Notre système solaire se trouve dans la « Voie lactée », une galaxie d’environ 100 000 années lumières de diamètre.
Cassini-Huygens est une mission d'exploration spatiale de la planète Saturne et ses lunes par une sonde spatiale développée par l'agence spatialeaméricaine de la NASA avec des participations importantes de l'Agence spatiale européenne (ESA) et de l'Agence spatiale italienne (ASI). Lancé en octobre 1997 l'engin s'est placé en orbite autour de Saturne en 2004. En 2005 l'atterrisseur européenHuygens après s'être détaché de la sonde mère s'est posé à la surface de la lune Titan et a pu retransmettre des informations collectées durant la descente et après son atterrissage. L'orbiteur Cassini orbite depuis autour de Saturne et poursuit l'étude scientifique de la planète géante en profitant de ses passages à faible distance de ses satellites pour collecter des données détaillées sur ceux-ci. La mission d'une durée initiale de 4 ans a été prolongée à deux reprises : de 2008 à 2010 (Equinox mission) et de 2010 à 2017 (Solstice Mission). Il est prévu que la sonde spatiale s'écrase sur la planète Saturne à l'issue de cette dernière phase.
Le principe d'une mission d'étude du système de Saturne émerge en 1982 à la fois dans les communautés scientifiques américaine et européenne. Après avoir travaillé sur des projets séparés, la NASA et l'Agence spatiale européenne lancent à la fin des années 1980 le développement d'une mission conjointe : la NASA développe l'orbiteur et l'ESA l'atterrisseur qui doit se poser sur Titan. Le projet frôle à plusieurs reprises l'annulation à la suite des difficultés budgétaires de la NASA. Des mouvements écologistes tentent d'interdire le lancement de la sonde spatiale à cause du plutonium embarqué pour alimenter en énergie la sonde spatiale. Finalement la sonde spatiale est lancée le 15 octobre 1997 par un lanceur lourd Titan IV-B.
Cassini-Huygens est une mission particulièrement ambitieuse et couteuse (3,26 milliards $) rattachée à ce titre au programme Flagship de la NASA. Avec une masse totale de 5,6 tonnes (dont 3,1 tonnes de carburant et 350 kg pour l'atterrisseur Huygens) il s'agit du plus gros engin spatial lancé vers les planètes externes. L'orbiteur Cassini embarque 12 instruments scientifiques dont un radar tandis que Huygens en emporte six. Cassini est stabilisé trois axes et son énergie est fournie par trois générateurs thermoélectriques à radioisotope utilisant du plutonium.
La mission Cassini-Huygens a rempli tous ses objectifs scientifiques en fournissant une moisson de données sur Saturne, sa magnétosphère, ses anneaux, Titan et les autres lunes de la planète géante. Les caméras de l'orbiteur ont également fourni certaines des plus belles images du système solaire. Cassini a notamment permis d'obtenir les premières images détaillées de Phœbé, d'analyser en détail la structure des anneaux de Saturne, d'étudier Titan de manière approfondie et de découvrir une dizaine de nouvelles lunes de Saturne de petite taille (moins de 10 km), portant le nombre total de satellites saturniens à 62 (nombre connu au 1er mai 2012). La sonde a permis également de découvrir de nouveaux anneaux de Saturne.
Un organisme génétiquement modifié (ou OGM) est un organisme dont le génome a été modifié par génie génétique. Cette modification peut être réalisée selon différentes techniques, en fonction du but recherché.
Pour certains, technique utilisée sans contrôle dans un objectif mercantile d’hégémonie commerciale, organismes contre-nature, bafouant l’éthique, voire blasphématoires pour d’autres, progrès de la science et de la société pour d’autres encore, les organismes transgéniques suscitent de vifs débats.
Un phonon (du grec ancienφονη, la voix) désigne, en physique de la matière condensée, un quantum de vibration dans un solidecristallin, c’est-à-dire un « paquet élémentaire de vibration » ou « paquet élémentaire de son » : lorsqu’un mode de vibration du cristal, de fréquence définie ν, cède ou gagne de l’énergie, il ne peut le faire que par paquets d’énergie hν, h étant la constante de Planck. Ce paquet est considéré comme une quasi-particule, à savoir une particule fictive associée au son. Le cristal est alors réputé échanger des phonons lorsqu’il perd ou gagne de l’énergie. Le concept permet une analogie avec la lumière qui possède des propriétés similaires : elle se manifeste tantôt comme une onde, tantôt comme un paquet d’énergie hν, qui correspond à une particule élémentaire — non fictive cette fois — appelée photon.
Elle regroupe en son sein des lois universelles applicables dans de nombreux domaines tels que la météorologie ou l’astrophysique. Le calcul de la trajectoire de la fumée est un bon exemple pour illustrer de la théorie du chaos : en effet, la trajectoire des particules de fumée dépend d'une infinité de facteurs (mouvement et position du combustible, humidité de l’air, trajectoire, force et fréquence du vent par exemple).
Théorie scientifique expliquant de manière rationnelle l’imprévisible, caractérisée par l’existence d’invariants prenant la forme de mesures de probabilités, d’attracteurs, de dimensionsfractales… Toutes les sciences, y compris sociales, sont concernées par ce changement de paradigme, afin de répondre à l’intuition de Platon (reformulée par James Gleick) : « [...] derrière les formes visibles et particulières de la matière doivent se cacher des formes fantomatiques qui leurs servent de modèle invisible. »
C'est le second élément le plus rare, après l’astate : il n'en existerait qu'une trentaine de grammes dans la croûte terrestre.
Cette rareté est due à son existence transitoire, en tant que produit de désintégration de l'actinium. La demi-vie de l'isotope le plus stable 223Fr est de 23 minutes, puis il se transforme lui-même en radium par désintégration bêta ou en astate par rayonnement alpha. Et c'est cette double radioactivité qui rend l'astate encore plus rare que le francium, même si l'astate a une demi-vie supérieure à celle du francium (8,1 h > 23 min).
Le francium a été découvert en 1939 à l'Institut Curie de Paris par Marguerite Perey, en purifiant du lanthane contenant de l'actinium. Il s'agit du dernier élément découvert dans la nature et non synthétisé (certains éléments tels le technétium ont été découverts dans la nature après avoir été synthétisés en laboratoire).
L'utilisation de la thermoélectricité en thermométrie connaît un grand succès depuis le début du XXe siècle et en réfrigération portable depuis les années 2000. Par contre, la thermopile a du mal à émerger car son rendement est peu élevé et les coûts sont importants, cela les limite à des utilisations très ciblées en 2005 (il n'y a pas encore de marché de niche pour la thermopile). Cependant des progrès récents, ainsi qu'un nouvel intérêt pour la thermoélectricité dû à la fois à la hausse des coûts de l'énergie et aux exigences environnementales, ont conduit à un renouveau important des recherches scientifiques dans cette discipline.
Participant à la Renaissance italienne, Léonard de Vinci se situe à ce moment charnière où les savants perçoivent, sans pour autant parvenir à les dépasser, les limites des théories scientifiques et l'inefficience des technologies contemporaines, héritées de l'Antiquité et encore ancrées dans le Moyen Âge. Se revendiquant scientifique et surtout ingénieur, il ne bénéficie cependant que d'une formation sommaire puisqu'il ne fréquente que deux ans une école pour futurs commerçants puis est intégré au sein de l'atelier d'Andrea del Verrocchio, lui-même artiste polymathe, qui lui fait découvrir la peinture et la sculpture, et l'initie également aux techniques permettant de les mettre en œuvre, comme la fonderie, la métallurgie ou l'ingénierie. En outre, l'importance et l'intensité de son travail dans chacun des domaines envisagés le conduisent presque invariablement à envisager la création d'un traité. Néanmoins, pas un seul n'est mené à son terme du fait de sa tendance à l'inachèvement.
Diversement reconnu par ses contemporains, son parcours scientifique et d'ingénieur n'est que tardivement redécouvert au tournant des XVIIIe et XIXe siècles. D'abord considérée comme celle d'un génie absolu, inégalée et isolée parmi ses contemporains, la figure de Léonard est, au mitan du XXe siècle, fortement remise en question. Ses limites sont dès lors mises en avant, en particulier ses bagages : théoriques, du fait de ne pas avoir fréquenté les universités ; notionnels, par méconnaissance du grec et du latin alors porteurs du vocabulaire technique et scientifique. Pour autant, Léonard de Vinci est, à l'orée du XXIe siècle, replacé dans son contexte : il est désormais considéré comme un savant de son temps, héritier des connaissances et des croyances médiévales, et dont le travail bénéficie des avancées de contemporains comme celles de Filippo Brunelleschi, Giuliano da Sangallo ou Francesco di Giorgio Martini.
Bien que ses apports soient relativisés, les historiens des sciences lui reconnaissent d'avoir introduit l'utilisation du dessin technique en tant que support de mémoire et pédagogique ; d'avoir poussé à leur perfection les techniques de représentations et de les avoir appliquées à tout sujet technologique. De même, son travail se distingue par son caractère systématique et par une attention aussi aiguë pour le détail que pour l'ensemble. Enfin, ses recherches se singularisent de ses contemporains par un souci de rentabilisation économique du travail par la recherche systématique de l'automatisation des mécanismes.