Data Processing & Analysis ConsortiumDas Data Processing & Analysis Consortium (DPAC) ist ein Team von ca. 450 Wissenschaftlern, Ingenieuren und Softwareentwicklern zahlreicher Institute und Nationen in Voll- und Teilzeit, die seit 2006 mit der Vorbereitung und Auswertung der wissenschaftlichen Daten der Gaia-Mission beschäftigt sind. Eine Hauptaufgabe ist die Erstellung und Veröffentlichung der Gaia-Kataloge. Anders als bei vielen anderen Missionen sind die Rohdaten von Gaia ohne weitere Behandlung nicht nutzbar. Die ESA musste zusammen mit DPAC neue Software entwickeln, damit die gewonnenen Daten am Boden effizient verarbeitet, archiviert und für die Nutzung aufbereitet werden können. Zudem wurden die Empfangskapazitäten und Internetverbindungen der drei 35-Meter-Antennen des ESTRACK-Netzwerks in New Norcia, Cebreros und Malargüe ausgebaut, um die hohen Datenmengen der Gaia-Mission effektiv empfangen, verarbeiten, weiterleiten und speichern zu können. Die Daten vom Antennennetzwerk werden vom Europäischen Raumflugkontrollzentrum ESOC in Darmstadt gebündelt, zum wissenschaftlichen Zentrum (Science Operations Centre, SOC) im ESAC weitergeleitet und dort gespeichert. Das Zentrum von DPAC mit der zentralen Datenbank aller Daten befindet sich in Villafranca del Castillo in der Nähe von Madrid in Spanien und wird von der ESA bereitgestellt und unterhalten. Eine weitere Datensicherung für alle Daten besteht räumlich weit getrennt im CNES-Datenzentrum in Toulouse. Das DPAC ist in sechs Datenzentren und neun Coordination Units (CUs) organisiert. Die Kosten für DPAC für die Weiterverarbeitung der Daten werden dabei aus nationalen Budgets bzw. von den Budgets der beteiligten Institute getragen, nicht von der ESA. Im November 2022 wurde bekanntgegeben, dass DPAC den New York Community Trust Prize for Meritorious Work in Astronomy (der Berkeley-Preis, benannt nach Lancelot M. Berkeley) 2023 von der American Astronomical Society erhalten soll. Der Berkeley-Preis soll von Anthony Brown (Sternwarte Leiden), dem Vorsitzenden von DPAC, entgegengenommen werden. Der Preisvortrag soll am 12. Januar 2023 im Seattle Convention Center gehalten werden.[1] Zur Begründung wird ein Artikel in A&A genannt.[2] Beteiligte Länder und InstitutionenDPAC ist ein hauptsächlich, aber nicht ausschließlich europäisches Projekt, das von 21 Nationen und zwei internationalen Institutionen unterstützt wird. Unterstützt wird das Projekt finanziell durch die Institutionen, die am Gaia Multi Lateral Agreement (MLA) teilnehmen. Weitere Unterstützung erfährt das Projekt durch Wissenschaftler anderer Länder, die über Austauschprojekte und Stipendien ihrer Länder teilnehmen. Die Liste der beteiligten Institute ist veränderlich, entsprechend den anfallenden Aufgaben. StandorteDie Aufbereitung der Daten geschieht an sechs Datenverarbeitungszentren (Data processing Centres, DPC) in Villafranca, Barcelona, Cambridge, Genf, Turin und Toulouse.[5] Die einzelnen Standorte haben ihre eigene Finanzierung und entwickeln jeweils ihren eigenen Weg zur Erfüllung ihrer Aufgaben und rekrutieren das nötige Personal; sie entscheiden selbst, welche Mittel und Technik sie dazu einsetzen und testen sie vor dem Einsatz mit simulierten Daten. Jede Arbeitsgruppe (Coordination Unit oder CU) ist einem oder mehreren Standorten zugeordnet, während die beteiligten Wissenschaftler auch an anderen Instituten und an weit verstreuten Orten arbeiten können. Die sechs Standorte sind untereinander mindestens mit 1-Gbit/s-Datenleitungen vernetzt, deren Kapazität erweiterbar ist, falls in Zukunft mehr Bandbreite benötigt wird. Alle Rohdaten, Zwischenergebnisse und Endresultate der jeweiligen Prozesse werden im Data Processing Centre at ESAC (DPCE) in Villafranca gespeichert und können von den Arbeitsgruppen wieder für die nächsten Schritte abgerufen werden. Die Datenverarbeitungszentren befinden sich unter dem Dach bestehender Institutionen und haben eigene Namen. Jedes dieser Datenzentren betreibt entweder eigene Datenverarbeitungssysteme, greift auf die Systeme der beteiligten Institute zurück oder vergibt die Aufgaben extern an entsprechende Supercomputer oder Serviceprovider. DPCE VillafrancaDas Data Processing Centre at ESAC (DPCE) ist Teil des wissenschaftlichen Missionzentrums (Science Operations Centre, SOC) im ESAC in Villafranca. Das Datenzentrum betreibt die Software der CU1 mit den Aufgaben Raw Data Base, Main Data Base (Hauptdatenbank, MDB), Mission Operations Centre Interface Task (MIT), Decompression and Calibration Service (DCS), Payload Operations System (POS) und Gaia Transfer System (GTS), ein Internet basiertes System zum Datenaustausch zwischen den Datenzentren. Für die CU3 betreibt DPCE die Module Initial Data Treatment (IDT), First Look (FL) und Astrometric Global Iterative Solution (AGIS). Zu den eigenen Aufgaben gehören die IDT/FL Database (IDTFLDB), die Daily PipeLine (DPL) und das Gaia Observing Schedule Tool (GOST). DPCE dient außerdem als Bindeglied zwischen dem Missionszentrum (MOC) in Darmstadt und den anderen Datenzentren. Die Hauptdatenbank umfasste mit dem Stand von Gaia DR2 knapp 2,5 Milliarden Objekte, davon wurden mit Gaia EDR3 bzw. DR3 Daten von 1,8 Milliarden Objekten veröffentlicht.[6] DPCE beherbergt die Server für die Gaia-Kataloge und das Gaia-Archiv weit über die aktive Zeit der Gaia-Mission hinaus. DPCB BarcelonaDas Data Processing Centre of Barcelona (DPCB) ist eingebunden in die DPAC-Gruppe der Universität Barcelona (UB) zusammen mit dem Institute for Space Studies of Catalonia (IEEC), dem Barcelona Supercomputing Centre (BSC) und dem Consorci de Serveis Universitaris de Catalunya (CSUC) in Barcelona. Die Hardware wird vom BSC bereitgestellt, während das Team von UB und IEEC für Management, Betrieb, Entwicklung und Softwaretest verantwortlich ist. Für die CU1 betreibt das DPCB das Modul Gaia Transfer System (GTS) zum Austausch mit dem DPCE, für die CU3 das Intermediate Data Updating (IDU) und für die CU2 Datensimulationen zur Sondentelemetrie und für die Gaiakataloge. Außerdem dient es als Backup für die Hauptdatenbank und für die die Telemetriedaten. Für diese Aufgaben nutzt das BSC intensiv den MareNostrum-Supercomputer, der 2017 mit 3000 Rechenknoten und 100,8 TB Hauptspeicher ausgestattet eine Rechenleistung von 1,1 Petaflops erreichte. Für Gaia DR2 wurden 389.245 Prozessorstunden benötigt; in dieser Zahl sind nur die erfolgreichen Durchgänge gezählt.[6] Mit dem Modul IDU wird die Basis geschaffen für die nächsten Schritte AGIS und PhotPipe. Das Modul IDU wird einmal am Ende jedes Datensegments durchgeführt, dabei werden die Daten von vielen Monaten Beobachtungszeit gemeinsam ausgewertet und Kalibrierungsdaten, beispielsweise zur Hintergrundhelligkeit, berücksichtigt. DPCC ToulouseDas Data Processing Centre at CNES (DPCC) befindet sich am CNES in Toulouse. Das CNES-Datenzentrum in Toulouse speichert einen kompletten Datensatz aller Gaia-Daten als Sicherheitskopie an einem anderen Ort, während die Hauptdatenbank in Villafranca vorgehalten wird. Das DPCC verarbeitet die Daten von CU4 mit den Sonnensystemobjekten und Mehrfachsternsystemen, von CU6 mit der Verarbeitung der spektroskopischen Daten und von CU8 mit der Bestimmung der Spektralklassen der Objekte. In Touluse beschäftigt man sich mit einigen Objektklassen: Doppel- und Mehrfachsterne, Sponnensystemobjekte, ausgedehnte Objekte wie Quasare und nicht aufgelöste Galaxien, im Allgemeinen Objekte, die sich nicht mit den üblichen astrometrischen, photometrischen und spektroskopischen Verfahren automatisiert verarbeiten lassen. Es gibt dafür acht verschiedene tägliche und wiederkehrende Prozesse. DPCC entdeckt neue Sonnensystemobjekte und gibt die Alarmmeldungen an das Gaia follow-up network for Solar-system objects, (FUN-SSO), also an das Netzwerk zur Nachverfolgung von Sonnensystemobjekten. Die Verarbeitung der spektroskopischen Daten wertet die Ergebnisse des RVS aus. Zu den Aufgaben gehört die Überwachung, ob das Instrument korrekt funktioniert und entsprechend kalibriert ist, Berechnung der Radialgeschwindigkeit und der Rotationsgeschwindigkeit, Erkennung von variablen Sterne, Doppel- und Mehrfachsternen, gibt saubere und kalibrierte Spektren heraus. Der Prozess astrophysical-parameter processing chain (Apsis) kümmert sich um Kalibrierungsdaten und klassifiziert Gaia-Objekte. Die Datenverarbeitung arbeitete für Gaia DR2 mit 172 Rechenknoten mit 3500 Prozessorkernen und 19 TB Hauptspeicher sowie 2,6 PB Datenspeicher. Die Rechenkapazitäten müssen zusammen mit den Aufgaben und Datenmengen erweitert werden. Am Schluss wird der Cluster ungefähr 5800 Prozessorkerne und 4.5 PB Datenspeicher benötigen. Die Backup-Lösung für die Hauptdatenbank basiert auf einem temporären Plattenspeicher mit 64 TB und einem Roboter für Bandspeicher.[6] DPCI CambridgeDas DPCI befindet sich am Institute of Astronomy (IoA) an der University of Cambridge. DPCI verarbeitet täglich die Daten von IDT und gibt bei auffälligen Funden und vorübergehenden Phänomenen die Gaia photometric science alerts heraus. Ein Prozess konstruiert die Lichtkurven für alle bekannten Objekte und erkennt neue Objekte. DPCI betreibt die Datenverarbeitung für die CU5 mit PhotPipe. PhotPipe arbeitet zyklisch und kann die Arbeit erst aufnehmen, wenn die Daten für ein gesamtes Datensegment gesammelt sind und die Ergebnisse von IDU und AGIS vorliegen. Für Gaia DR2 wurden 51,7 Milliarden Transits in PhotPipe verarbeitet, dabei blieben 40,9 Milliarden übrig, nachdem 10,7 Milliarden überzählige Objekte ausgefiltert worden waren, für die keine Objekte aus der Datenbank zugeordnet werden konnten. Es handelt sich dabei mehrheitlich um scheinbare Objekte: Artefakte, die durch Überstrahlung von hellen Objekten hervorgerufen wurden oder um Effekte der Weltraumstrahlung.[6] In Cambridge arbeitet Gaia DPAC Radiation Task Force, die die Strahlenschäden und beschädigte oder defekte Pixel an den Sensoren Gaias erkennt und in ihre Modelle einbezieht. DPCG GenfDas Data Processing Centre in Geneva (DPCG) befindet sich an der Fakultät für Astronomie der Universität Genf. Für die Datenverarbeitung wird das IntegralScience Data Centre (ISDC) in Versoix nahe Genf genutzt. DPCG betreibt die Untersuchung der Variabilität mit der Integrated Variability Pipeline (IVP) für CU7. DPCG betreibt einen zyklischen Prozess. Diese Einheit kann erst arbeiten, wenn die Ergebnisse von verschiedenen anderen Einheiten über einen bestimmten Zeitraum vorliegen, dabei werden Daten und Ergebnisse von CU3, CU4, CU5, CU6 und CU8 verwendet. Für jedes Objekt wird eine zeitabhängige Serie der Messungen erstellt, auch für die nicht variablen Objekte. Anhand dieser Serie werden verschiedene Statistiken geführt. Damit werden die variablen Objekte erkannt, dann werden von den variablen Objekten die periodisch veränderlichen Objekte bestimmt, weiterhin werden die Perioden, Bandweite, Phasen und Modelle bestimmt. Der Prozess zielt darauf ab, die Klassen von variablen Objekten zu bestimmen, außerdem für jedes Objekt eine Wahrscheinlichkeit, dass es einer bestimmten Klasse zugehört. Die Ergebnisse werden entsprechend von CU4, CU6, und CU8 weiterverarbeitet. Für die Datenverarbeitung wird ein Cluster mit 850 Prozessorkernen verwendet. Alle 1,7 Milliarden Objekte aus Gaia DR2 wurden für die entsprechende Beobachtungszeit auf photometrische Variabilität untersucht.[6] DPCT TurinDas Data Processing Centre at Torino (DPCT) betreibt die Datenverarbeitung für die Astrometric Verification Unit (AVU) der CU3 und spielt eine wichtige Rolle bei der Qualitätssicherung. DPCT betreibt folgende Module
Zu den Aufgaben gehört die Überwachung und Analyse der Ausgaben der Astronometrischen Instrumente und die Überwachung des „Basic Angle Monitoring System“, das die minimalen Veränderungen des Basiswinkels zwischen den beiden Teleskopen überwacht. Die Gruppe betreibt die Einheit „Global Sphere Reconstruction“ (GSR); die Ergebnisse von AGIS werden verifiziert. Die Gruppe stellt aus den Analysen der Instrumente die Kalibrierungsdaten für die täglichen Prozesse bereit. Einer der Prozesse wird auf dem Fermi-Supercomputer der CINECA ausgeführt. Eines der Module entfernt die Drehbewegung der Teleskope und verknüpft die Daten mit dem Gaia Celestial Reference Frame.[6] Ein Teil der Prozesse läuft täglich, AVU/AIM läuft über die Daten von 24 Stunden. Ein Prozess verarbeitet die Rohdaten und benutzt dafür PSF und LSF und erkennt daran den Zustand der Sensoren und die Bildqualität. Es wird dabei erkannt wie stark sich die Eigenschaften der Abbildung verändern wenn sie über verschiedene Sensoren gemessen werden und findet so Daten zur Kalibrierung. Für Gaia DR3 wurde mit AIM zwischen 2 und 11 Millionen Beobachtungen täglich verarbeitet. ArbeitsgruppenCU1 – System / IT ArchitectureDie CU1 war die erste tätige Arbeitsgruppe. Sie wurde gegründet, bevor die Sonde gebaut war, und war für die Definition der Systemarchitektur zuständig, die von DPAC genutzt wird, für die dazu benötigte Hardware, Software und die nötige Technologie für die Hauptdatenbank. Außerdem war sie für die Festlegung und Überwachung von Systemstandards und Systemtests zuständig. Zu ihren Aufgaben gehörte die Anpassung an die ECSS-Standards und das MOC-Interface sowie die Definition für die Qualitätssicherung. Die CU1 legte fest, was die Aufgaben der übrigen Arbeitsgruppen sind, welcher der Standorte welche Funktion übernimmt, wie die Prozesse ablaufen, wie der Datenfluss verlaufen soll und wie die erzielten Ergebnisse am Ende wieder gesammelt werden und gespeichert werden. CU2 – SimulationsDie CU2 war für die Simulationen zum Test von Hard- und Software vor dem Einsatz zuständig. Die Software wurde vor ihrem Einsatz mit umfangreichen simulierten Daten auf ihre Zuverlässigkeit getestet, bevor sie für die Verarbeitung der Gaia-Missionsdaten verwendet werden konnte. CU1 und CU2 waren die ersten aktiven Arbeitsgruppen und begannen mit ihrer Arbeit bereits lange vor dem Start des Teleskops. Seit erfolgreicher Entwicklung und Start der Mission beschränkt sich die Aufgabe auf den Support der Software und die Herausgabe von Updates. Der Datensimulator soll während der gesamten Missionsdauer zur Verfügung stehen und wird weiterhin gewartet. Die einzelnen Arbeitsgruppen können anhand der simulierten Daten ihre Prozesse austesten und die Ergebnisse verifizieren. CU3 – Astrometric Core ProcessingDie CU3 leistet den Hauptteil der Rechenarbeit für die astrometrischen Daten und liefert die Position und Bewegungsrichtung von Objekten am Himmel. Zu den täglichen Aufgaben gehört die Dekodierung, Entpackung und Verarbeitung der Wissenschaftsdaten, die vom Missionszentrum (MOC) geliefert werden. Die Arbeitsgruppe überwacht die korrekte Funktion der Sonde und gibt ultrapräzise Auskunft über die Arbeit der Instrumente an ESOC für die Überwachung der Sonde weiter. Sie übernimmt auch eine erste Sichtung des Materials (First Look) und gibt „Science-Alerts“ aus, wenn plötzliche Ereignisse entdeckt werden. Die CU3 arbeitet mit AGIS (astrometric global iterative solution) und übernimmt den größten Teil der mathematischen Datenreduktion. Neben der täglichen Arbeit übernimmt sie die periodische iterative Nachberechnung der Telemetriedaten, indem sie die Daten mit Hilfe verbesserter Kalibrierungsdaten nachberechnet. Dabei berücksichtigt sie die Kalibrierungsdaten der Messinstrumente, z. B. die kleinen Veränderungen des Grundwinkels, wie sie von den Sensoren des Basic Angle Monitors gemessen werden, die bei den täglichen Datenprozessen noch nicht berücksichtigt sind. CU4 – Complex Object ProcessingDie CU4 übernimmt die Objektberechnungen für komplexere Objekte, die nicht im Einzelnen von der CU3 behandelt werden können. Sie befasst sich mit Zweifach- und Mehrfachsternsystemen, den Objekten des Sonnensystems und mit Exoplaneten, außerdem mit ausgedehnten Objekten wie Galaxien und Sternhaufen, die nicht als einzelne Objekte verarbeitet werden können, und mit sonstigen extragalaktischen Objekten. Handelt es sich bei einem Objekt um einen Stern, so wird das Objekt mehrfach nahe einer Position gemessen; andernfalls handelt es sich wahrscheinlich um einen Asteroiden oder Kometen, der seine Position gegenüber den vorherigen Beobachtungen deutlich verändert hat. Alle so entdeckten Objekte werden mit den Bahnen von bereits bekannten Asteroiden verglichen. Ergibt sich keine Übereinstimmung, so handelt es sich potentiell um ein neu entdecktes Objekt. Bewegungen von mehr als etwa 1 as/s können bereits durch den Vergleich der unterschiedlichen Ergebnisse aus dem Feld der Astrometriesensoren während einer Erfassung erkannt werden. Die Ergebnisse werden an das Gaia-FUN-SSO-Netzwerk gemeldet, das versucht, die Objekte über einen längeren Zeitraum zu verfolgen, um mehr Bahndaten zu gewinnen und um zu verhindern, dass bereits erfasste Objekte wieder verloren gehen, bevor genügend Daten für eine Bahnbestimmung gesammelt sind. CU5 – Photometric ProcessingDie CU5 konzentriert sich auf die photometrischen Daten und unternimmt die allgemeine Kalibrierung für die Helligkeit. Sie sammelt die Informationen über die Helligkeit epochenbezogen. Die CU5 gibt Science-Alerts aus, wenn Objekte ungewöhnliche Helligkeitsschwankungen zeigen, z. B. wenn eine Supernova oder ein Gravitationslinseneffekt entdeckt wird. CU5 läuft in Cambridge unter dem Dach von DPCI. CU6 – Spectroscopic ProcessingDas RVS-Instrument wurde mit Hilfe der RVS-Arbeitsgruppe am Mullard Space Science Laboratory, University College London entwickelt. Das RVS-Instrument wird von der RVS Pipeline ausgewertet, die Teil von CU6 ist.[7] Die CU6 verarbeitet die spektroskopischen Daten von einzelnen Sternen. Die Spektroskopie ermöglicht anhand von Dopplerverschiebung die Berechnung der Radialgeschwindigkeit und Rotationsgeschwindigkeiten. Sie bestimmt die Zusammensetzungen von Einzelsternen. Zu den Aufgaben gehört die Zuordnung der Spektren zu den helleren Objekten und die Korrektur der Spektren gegen die Strahlung des Hintergrunds. Eine weitere Aufgabe ist die Validierung der Daten. Die CU6 begann in den Ursprüngen bereits in der Planungsphase gegen Ende der 1990er-Jahre. Eine kleine Gruppe von Spezialisten arbeitete am Konzept des Radialgeschwindigkeitsspektrometers (RVS) und führte verschiedene Simulationen durch. 2001 wurde dann die RVS-Arbeitsgruppe gegründet, die die wissenschaftlichen Ziele definierte und die Industrie bei der Umsetzung in technische Spezifikationen unterstützte. Zu den Arbeiten gehörte auch der Test der Prototypen des RVS und die Simulation und Auswertung der Daten, um die Fähigkeiten des Instruments auszutesten. 2006 wurde festgestellt, dass das Konzept in die Gaiamission integriert werden kann; in der Folge wurde dann DPAC gegründet, und die RVS-Arbeitsgruppe wurde in Coordination Unit 6 (CU6) umbenannt. Das Team von Wissenschaftlern an verschiedenen Instituten in Europa (Meudon Observatory, MSSL, AIP, Universities of Antwerp, Bordeaux, Brussels, Liege, Ljubljana, Montpellier) wurde mit der Entwicklung der entsprechenden Auswertungsmethoden betraut und hatte auch die Aufgabe, die entsprechende Infrastruktur für die Verarbeitung dieser großen Datenmengen bereitzustellen. Für die Datenverarbeitung ist CNES in Toulouse verantwortlich, zusammen mit dem Aufbau der Spectroscopic Pipeline. Eine besondere Herausforderung ist die Verbindung der Pipeline mit den Ergebnissen der vorhergehenden CUs. Die Pipeline nahm ihre Arbeit 2016 auf, und die ersten Ergebnisse wurden im Gaia DR2 veröffentlicht.[8] CU7 – Variability analysisVariable Sterne werden von der CU7 untersucht, die ihre Perioden untersucht und bestimmt sowie Variabilitätsmodelle entwirft. Die Ergebnisse der CU7 gehen wiederum in die Kalibrierungsberechenungen ein. Außerdem koordiniert diese Einheit die externen Beobachtungen und gibt neu erkannte variable Sterne bekannt. Das Team untersucht die gesammelten Katalogdaten und sucht darin bisher nicht erkannte veränderliche Sterne. CU8 – Astrophysical characterizationDie CU8 unternimmt die Bestimmung von ausgedehnten und nicht punktförmigen Himmelsobjekten, beispielsweise Galaxien und Zwerggalaxien, Nebel etc. Sie gibt die photometrischen und spektroskopischen Parameter aus, z. B. die Spektralklasse. Sie kümmert sich um Sternbedeckungen und analysiert Objektcluster, schätzt Leuchtkraft, Alter und Masse von Objekten, teilt alle beobachteten Objekte in bestimmte Klassen ein und versucht, Gruppen von zusammengehörigen Objekten zu identifizieren. Mit Gaia DR3 werden Ergebnisse von CU8 in größerem Stil herauskommen. CU9 – Archive and catalogue accessDie CU9 wurde von allen Grupen als letzte gebildet. Sie betreut die Grundfunktionen Archivierung, Datenbank und Datenabrufschnittstellen und die zugehörigen Server für künftige Forschergenerationen. Die CU9 verifiziert die ermittelten Daten und bereitet die Veröffentlichung der Gaia-Kataloge vor.[9] Die Anforderungen an den Katalog können sich mit dem wissenschaftlichen Fortschritt immer wieder ändern und künftige Entwicklungen und Fragestellungen müssen ebenfalls erfüllt werden. Die CU9 darf vor der allgemeinen Veröffentlichung im offiziellen Katalog keine Daten an einzelne Wissenschaftler oder Institute herausgeben. In einzelnen Fällen waren solche Gaia-Daten wichtig für andere Raummissionen, z. B. half die Gaia-Mission der New-Horizons-Mission mit präzisen Daten über die Sternbedeckungen von (486958) Arrokoth. In diesen Fällen wurden die Daten vorab veröffentlicht. Die CU9 entwickelt auch Programme und Anwendungen zur besseren Zugänglichkeit und zur Visualisierung der Daten. Außerdem unterstützt sie die Ausbildung und Lehre von Wissenschaftlern und dient auch der allgemeinen Bildung und unterstützt die Präsentation der Mission in der Öffentlichkeit. Die CU9 oder eine Nachfolgeorganisation soll die Arbeit weit über die Lebensdauer der Mission hinaus fortführen, wenn alle anderen Gruppen ihre Aufgaben bereits erfüllt und sich wieder aufgelöst haben. Die Daten der Gaiamission und die entsprechenden Server zur Abfrage und Auswertung sollen auch für folgende Forschungsgenerationen bereitgehalten werden. Datenpakete der GaiamissionEs gibt zwei grundsätzliche Arten von Gaia-Daten: zum einen Daten, die von der Raumsonde gewonnen werden, und zum anderen Daten, die begleitend zur Mission gesammelt werden. Dopplermessungen, Laufzeitmessungen und Delta-DOR Messungen der Radioteleskope und die Positionsdaten der Teleskope, die in der Ground-Based-Optical-Tracking-Einheit (GBOT) betrieben werden, also die Daten für die Positionsbestimmungen der Sonde, sind solche begleitenden Daten. Gaia selbst produziert viele unterschiedliche Rohdaten, die unterschiedlich priorisiert und verarbeitet werden. Gaia generiert Daten von unterschiedlichen Instrumenten und Sensoren mit unterschiedlichen Datenpaketen. Es gibt drei Gruppen von Datenpaketen: SP, ASD und SIF. Wissenschaftlich verwertbare Daten sind in erster Linie in den sogenannten Star Packets (SP) und Ancillary Science Data Packets (ASD) enthalten. Während die Star Packets (SP) die eigentlichen Daten enthalten, werden die Ancillary Science Data Packets (ASD) zur Rekonstruktion von Positionen und Zeiten benötigt. Es gibt neun verschiedene Star Packets (SP1 bis SP9) und sieben verschiedene Ancillary Science Data Packets (ASD1 bis ASD7). Außerdem gibt es noch Service Interface Packets (SIF), diese enthalten in den meisten Fällen keine wissenschaftlichen Daten, sondern Daten über die Funktion des Service-Moduls, z. B. Daten der Stromversorgung, Temperaturen und andere Messwerte und Monitordaten über die Datenverarbeitungssysteme z. B. Prozessor- und Speicherauslastung. Diese Datenpakete sind für den Betrieb der Sonde notwendig.[10] Die SIF-Datenpakete umfassen auch die Auswertung der Starmapper, die für neun Himmelsregionen mit besonders hoher Sternendichte angefertigt wurden. Die wissenschaftliche Auswertung dieser Sensordaten war zu Beginn der Mission noch nicht eingeplant. Bei dieser Auswertung wird im laufenden Betrieb der Bildspeicher ausgelesen, ohne die übrige Datenverarbeitung zu beeinträchtigen. Die Auswertung der SIF-Daten geschieht über einen völlig unterschiedlichen Prozess als die Auswertung der SP und ASD durch AGIS.
Bis zum 31. Dezember 2018, dem 1620. Tag seit dem Beginn der wissenschaftlichen Datensammlung am 25. Juli 2014, wurden 116.023.842.167 Objekte von den Sensoren erfasst, dabei gab es 1.143.663.587.072 astrometrische Messungen durch die 62 astrometrischen und die 14 Skymapper-CCDs. Es gab 231.915.375.586 fotometrische Messungen durch die 14 blauen und roten Photometer-CCDs. Das RVS-Instrument zur Berechnung der Radialgeschwindigkeit verzeichnete 22.300.583.616 Spektren und 7.432.109.980 Objekte.[12] ArbeitsschritteWährend der täglichen Downlinkzeiten werden die Gaia-Datenpakete zur Bodenstation übermittelt. Generell werden zuerst SIF- und ASD-Datenpakete übertragen, erst dann folgen die eigentlichen Sternenpakete (SP), gestaffelt nach der Magnitude. Somit ist sichergestellt, dass in jedem Fall die Funktion der Sonde überwacht werden kann, dass keine Kalibrierungsdaten fehlen und dass alle empfangenen SP auch weiterverarbeitet werden können, selbst wenn aus irgendeinem Grund nicht alle Daten übertragen worden sind. SP ohne entsprechende Kalibrierungsdaten und ASD wären nutzlos. Die Verarbeitung kann dann bereits beim Empfang der ersten SP beginnen und muss nicht warten, bis alle Daten vollständig sind. In seltenen Fällen werden mehr Daten produziert, als gespeichert und zum Boden übertragen werden können. In diesem Fall werden die Pakete mit den lichtschwächsten Objekten zugunsten hellerer Objekte verworfen, umgekehrt werden die helleren Objekte priorisiert übertragen. Sind die Datenpakete am Boden angelangt, so werden sie zunächst in einer täglichen Prozedur weiterverarbeitet. Neben den täglichen Arbeitsschritten gibt es epochenbezogene Arbeitsschritte zur aufwendigen rekursiven Nachkalkulation der Daten. Einige Schritte werden nur einmalig und andere rekursiv in bestimmten Abständen durchlaufen. Es gibt Algorithmen, die nur bei den täglichen Prozeduren durchlaufen werden und andere, die nur bei einer gewissen Menge an gesammelten Daten sinnvoll sind.[13] DatensegmenteDie komplette Gaiamission wird zur Verarbeitung in größere Segmente eingeteilt, die jeweils einen Zeitraum von mehreren Monaten bis zu etwas mehr als einem Jahr abdecken. Einige Prozeduren benutzen die Datenbasis von einem kompletten Segment, somit können sie erst nach Abschluss eines Segments eingesetzt werden. Jedes Datenrelease umfasst die Ergebnisse aus einer Anzahl solcher Segmente.
Mission Operations Centre Interface Task (MIT)Direkt im Anschluss an die tägliche Übertragung wird der Datenstrom auf vollständige Übertragung überprüft, die verschiedenen Datenpakete werden identifiziert und erst einmal in der Rohdatenbank (Raw Data Base) gespeichert.[15] Die Daten können von verschiedenen Bodenstationen stammen und an unterschiedlichen Tagen übertragen worden sein und deswegen durcheinander sein.[13] MIT wird noch vom MOC in Darmstadt durchgeführt und die Daten werden in Villafranca gespeichert, sowie als Backup in CNES-Datenzentrum in Toulouse. Die Rohdaten gehen außerdem nach Turin für die Qualitätssicherung. Die Datenverarbeitung beginnt nach einer gewissen Zeit, noch bevor alle Datenpakete angekommen sind und ohne dass sicher ist, dass anscheinend fehlende Datenpakete jemals ankommen. Initial Data Treatment (IDT)Initial Data Treatment ist die erste Aufbereitung der täglich empfangenen Datenmenge. Eine der ersten und wichtigsten Aufgaben ist Raw Data Reconstruction. In dieser Prozedur werden die komprimierten Datenpakete entpackt, die Daten der Star Packets (SP) und Ancillary Science Data Packets (ASD) werden zusammengeführt und die Details für jedes Objekt rekonstruiert: Position, Form, die Funktion der CCD-Gates, Artificial Charge Injections, Beobachtungszeit, Messung der Lichtmenge, die Daten der Photometer und vorläufige Farbe, bei hellen Objekten auch die Ergebnisse des RVS. Die genaue Kalibrierung der Daten geschieht erst später. Zugleich wird die Ausrichtung des Raumfahrzeugs und der Teleskope und der Grundwinkel der Teleskope mit den BAM mit genügend Annäherung bestimmt, sodass die Objekte als bekannte Objekte im Objektekatalog identifiziert und die zusätzlichen Beobachtungen vermerkt werden können, oder andernfalls als neu erkannte Objekte hinzugefügt werden können. Das Ergebnis des IDT ist eine Annäherung der Positionsdaten und ein Abgleich (crossmatch) mit den bereits bekannten Objekten, der zum Abschluss in der Datenbank gespeichert wird. Für den Anfangsbetrieb wurde der Attitude Star Catalog verwendet, der in IGSL enthalten ist, um die erste Annäherung der Positionen zu ermöglichen. IGSL war dabei der erste Satz von Objekten, anhand derer die anfänglichen Beobachtungen abgeglichen wurden. Im Laufe der Mission wurde sowohl IGSL als auch der Attitude Star Catalog durch die Objektlisten der Hauptdatenbank ersetzt, die von Gaia selbst erstellt wurden. Für gewöhnlich geschieht IDT einmal täglich und wird innerhalb von einem Tag abgeschlossen. Wenn wegen Wartungsarbeiten Teile der Datenverarbeitung zeitweise nicht in Betrieb sind, oder wenn Scans in Regionen hoher Stenendichte überdurchschnittlich viele Daten produzieren, so können die weniger relevanten Teile der Daten auch später verarbeitet werden. Die Ergebnisse von IDT werden unabhängig davon täglich noch einmal von der Astrometric Verification Unit in Turin überprüft. Diese Einheit verwendet ähnliche Prozeduren wie IDT, berücksichtigt aber nur einen ausgewählten Teil der Objekte. Anhand dieser Objekte wird die korrekte Funktion von IDT in ESAC verifiziert und die Qualität der ankommenden Daten gesichert. First Look (FL)Direkt im Anschluss an IDT werden die Daten noch im ESAC analysiert. First Look (FL) ist im Wesentlichen ein Qualitätscheck der Daten. Es wird festgestellt, ob alle Systeme und Instrumente der Nutzlast wie gewünscht funktionieren, und ob die Daten den wissenschaftlichen Qualitätskriterien genügen. Dazu werden umfangreiche statistische Werte berechnet und mit simulierten oder prognostizierten Werten verglichen. Es wird frühzeitig festgestellt, wenn ein Eingreifen in den Betrieb der Sonde nötig ist und es wird festgelegt, an welchen Zeitpunkten ein neuer Abschnitt begonnen wird. Ein Teil der täglichen Kalibrierung und eine zweite verbesserte Positionsbestimmung vom Boden aus geschieht während First Look. FL identifiziert überdurchschnittlich starke Positionsveränderungen und überraschendene Magnituden- oder Spektralveränderungen von Objekten und findet so Sonnensystemobjekte, Supernovae, Sternbedeckungen und Gravitationslinseneffekte. FL identifiziert aber auch minimale ruckartige Rotationsabweichungen durch Mikrometeoriten oder „Clanks“ im Sondenbetrieb, die zu klein sind, als dass sie vom Navigationssystem erkannt würden und markiert sie als neuen Abschnitt. First Look gibt die Science-Alerts und Daten von neu gefundenen Sonnensystemobjekten zur weiteren Verfolgung der Bahnen mit erdgebundenen Teleskopen (SSO FUN) aus. RVS DailyIDT erledigt bereits eine grobe Verarbeitung der Daten des RVS und FL prüft allgemein, ob das Instrument fehlerfrei arbeitet. Die RVS Daily Routine verknüpft die Daten mit anfänglichen Kalibrierungen und fügt weitere Daten über den Zustand des RVS-Instruments hinzu. Dieses betrifft nur die Himmelsobjekte, die hell genug für eine Messung mit RVS sind. On-ground Attitude Reconstruction (IOGA, ODAS, OGA1 und OGA2)Für die genaue Messung und Rekonstruktion der Position und Ausrichtung der Teleskope liefern die Startracker Daten mit einer Genauigkeit von einigen wenigen Bogensekunden. Das ist ausreichend für die Navigation von Satelliten und Raumsonden. Für Gaia ist dieses Verfahren aber zu ungenau, man möchte eine Genauigkeit von wenigen Mikrobogensekunden erreichen. Für dieses Ziel gibt es ein iteratives Modell. Der erste Schritt ist Initial On-Ground-Attitude (IOGA). Dabei werden die Daten aus der Lagekontrolle der Sonde ausgewertet. OGA1 benötigt die Informationen in der richtigen Reihenfolge, wie sie von IDT bereitgestellt werden. Die Verarbeitung geschieht in Abschnitten, die z. B. durch Lageveränderungen der Sonde durch Mikrometeoriten ausgelöst werden oder durch einen „Clank“, einem Knacken innerhalb der Sonde, das durch innere Spannungen in den Komponenten der Sonde ausgelöst wird und eine kleine Erschütterung bewirkt. Die Objekte von verschiedenen Abschnitten können deswegen in einem kleinen Maß gegeneinander versetzt sein. Abschnitte können auch künstlich durch das Ende einer Datenübertragung erzeugt werden, oder wenn eine neue Berechnung startet. Die Objekte eines Abschnitts sind untereinander durch Messungen verknüpft und werden gemeinsam verarbeitet. Daten aus verschiedenen Abschnitten sind nicht untereinander durch Messungen verknüpft, die Messungen wurden aus irgendeinem Grunde unterbrochen, so dass verschiedene Abschnitte nicht zusammen verarbeitet werden, um die höchstmögliche Konsistenz der Daten zu erreichen. Die Ergebnisse von IOGA bilden die Ausgangsdaten von First On Ground Attitude (OGA1), bei dem ein Kalman-Filter eingesetzt wird, um die Daten zu glätten und die Genauigkeit von 50 Millibogensekunden zu erreichen, im weiteren Verlauf der Mission 5 Millibogensekunden. OGA1 verarbeitet neben den vorläufigen IOGA-Daten die Transit Identifier, die Beobachtungszeit sowie die Beobachtungswinkel, inklusive der Kalibrierdaten, dazu die Objektelisten zum Abgleich. Das Ergebnis von OGA1 wird für die tägliche One Day Astrometric Solution (ODAS) verwendet. Sobald die Ergebnisse durch den First-Look- und ODAS-Prozess gegangen sind, ergibt sich eine Verbesserung in der Genauigkeit und das Ergebnis ist OGA2. Die kleinen Verschiebungen der Abschnitte gegeneinander sind darin eliminiert. Für die ersten beiden Datensegmente erreichte OGA2 nur eine Genauigkeit von 50 mas, weil es noch an den weniger präzisen Attitude Star Katalog gebunden war, erreichte aber bereits eine Konsistenz der Daten untereinander auf einem Niveau von weniger als ein mas. Das Ergebnis ist aber noch gegen den ICRF in einer Rotationsbewegung verschoben. Es wäre möglich, OGA1-Daten für AGIS zu verwenden, aber OGA1 enthält viele Lücken und Unterbrechungen, so dass die Verwendung von OGA2 die weitere Verarbeitung vereinfacht. Intermediate Data Updating (IDU)Die Intermediate-Data-Updating-Prozedur wird ungefähr einmal im Halbjahr durchlaufen. Es werden die Dateien eines größeren Zeitraums, z. B. eines Datensegments, gemeinsam betrachtet. Dabei werden die bei ODAS gefundenen Daten überprüft und aktualisiert und neu kalibriert. Kalibrierung bedeutet in diesem Zusammenhang Erkennung und Bestimmung systematischer Fehlerquellen sowie die Berechnung und Minimalisierung von systematischen Fehlern aus den Daten. Kalibrierung bedeutet weiterhin Eliminierung unsystematischer Fehler, z. B. durch Erkennung von fehlerhaften Messungen und Ausreißern und Ausmittlung von Daten durch wiederholte Messungen. Überprüft wird dabei auch die anfängliche Zuordnung von Beobachtungen zu einem Objekt. Gegebenenfalls werden dabei zusätzliche Objekte generiert oder Duplikate verworfen oder eine Beobachtung kann einem anderen Objekt zugeordnet werden. Das IDU hat vier Hauptaufgaben:
IDU verwendet sowohl AGIS als auch PhotPipe, wobei die verbesserten Ergebnisse von IDU wiederum rekursiv von AGIS und PhotPipe verwendet werden. Die Ergebnisse von Gaia DR1 beruhen noch auf den Ergebnissen von IDT. Die Ergebnisse von Gaia DR2 beruhen auf IDU und sind daher genauer, vollständiger und konsistenter. Die IDU Prozedur wird mit dem MareNostrum-Supercomputer in Barcelona durchgeführt. Astrometric Global Iterative Solution (AGIS)AGIS ist eine iterative mathematische Prozedur, die mittels der Methode der gewichteten kleinsten Quadrate Billionen von Daten zu mehr als zwei Milliarden Objekten schrittweise zu einer Karte der ganzen Milchstraße und des Universums zusammensetzt. Die Genauigkeit der Daten verbessert sich dabei entsprechend der Zahl der Messungen eines Objekts; entsprechend wächst auch der Rechenbedarf. Dabei werden Daten aus mehreren Beobachtungen mit bereits bekannten Objekten verglichen und die Schwankungen von BAM einbezogen. Auch ein aktualisiertes photometrisches Modell, Veränderungen der Sensoren durch Alterung und die Hintergrundhelligkeit werden einbezogen. AGIS erledigt außerdem die Umrechnung von Positionsdaten der Objekte von der Fokussierungsebene Gaias in baryzentrische Koordinaten. Die Gaia-Mission verwendet mehrere verschiedene Koordinatensysteme und Zeitsysteme, die jeweils umgerechnet werden müssen.
AGIS nutzt einen Teil der Objekte als primäre Objekte. Diese sind bevorzugt gut beobachtete Objekte, die eine gute Verteilung von Positions- und Magnitudenmessungen haben. Dabei handelt es sich um Einzelsterne oder Quasare, die möglichst gleichmäßig über den Himmel verteilt sind. Für Gaia DR2 gab es 16 Millionen primäre Objekte, darunter rund eine halbe Million Quasare aus den bereits vorhandenen Quasarkatalogen und den ICRF-Katalogen. Die übrigen, sekundären Objekte werden jeweils einem solchen primären Objekt zugeordnet und deren Positionen untereinander relativ zum primären Ort bestimmt. Es kommen ungefähr bis zu 150 sekundäre Objekte auf ein primäres Objekt, wobei die Zahl je nach Sternendichte variiert. AGIS durchläuft vier Phasen:
Ein Großteil dieser Berechnungen von AGIS werden vom MareNostrum-Supercomputer in Barcelona übernommen. Die Kontrolle über AGIS liegt bei der CU3. Global Sphere ReconstructionDie Einheit Global Sphere Reconstruction ist eine unabhängige astrometrische Lösung mit einer anderen Rechenmethode, die nur aus den Positionen und Abständen der primären Objekte in AGIS gewonnen wird. Die Ergebnisse werden mit den Ergebnissen aus AGIS verglichen und geben Auskunft über die Qualität der Ergebnisse von AGIS. Global Sphere Reconstruction dient somit vor allem der Qualitätsüberwachung der Prozeduren. PhotPipePhotPipe ist die Aufgabe von DPCI in Cambridge. PhotPipe ist eine Prozedur zur Behandlung der Daten zur Ermittlung der G-Band-Magnitude und der beiden Magnituden GBP und GRP der Blauen (BP) und Roten (RP) Photometer. Einbezogen werden die Daten der Starmapper, aus dem astrometrischen Feld, sowie von den beiden Fotometern. Für die G-Band-Magnitude werden die Objekte während IDU mit Hilfe von Point-spread-Funktionen (PSF für 2D-Objekte) oder mit Line-spread-Funktionen (LSF für 1D-Objekte) ausgewertet und damit ein gesamter Lichtfluss über den gesamten Empfindlichkeitsbereich der Sensoren integriert, der als G-Band-Magnitude bezeichnet wird. Mit diesen Funktionen wird auch der Massenmittelpunkt berechnet, und es werden statistische Werte und Kenndaten für die Qualität der Messung ermittelt.[16] Für die Werte der beiden Photometer GBP und GRP wird direkt auf die Rohdaten von IDT zurückgegriffen, und die Auswertung und Kalibrierung geschieht durch PhotPipe direkt. Photpipe erledigt dabei alle Verarbeitungsschritte von den Rohdaten über die Integration der Lichtflüsse und der Kalibrierung bis zu den Ergebnissen. Photpipe verwendet den Datenabgleich der IDU, bei der verschiedenen Messungen einem bestimmten Objekt zugeordnet und Artefakte durch Überstrahlung von hellen Objekten eliminiert werden. Photpipe verwendet im Prozess Source Environment Analysis die Informationen über die Hintergrundhelligkeit, über geometrische Verzerrungen durch die Optik und über den Zustand der Sensoren, z. B. Hotpixel oder Strahlungsschäden in den Sensoren. Zur Kalibrierung werden die gefundenen Werte mit den Werten von bereits gut bekannten photometrischen Standardsternen verglichen. Die Farbinformationen verbessern wiederum die Positionsbestimmung der Astrometrie. Die große Menge an Daten, die innerhalb einer gewissen Zeit verarbeitet werden müssen, erfordern ein verteiltes System. Photpipe verwendet dafür ein System basierend auf Apache Hadoop. Der Cluster wurde im April 2012 in Betrieb genommen und besteht aus 108 Hadoop Knoten und ein knapp 1 PB Hadoop Distributed File System (HDFS) als Plattenspeicher und InfiniBand.[17] Fortgeschrittene AuswertungenDie fortgeschrittenen Auswertungen setzen die astrometrische Lösung und die Ergebnisse von Photpipe bereits voraus. Magnituden, Farben und Spektren sind dabei den Objekten bereits zugeordnet und die Daten sind schon mehr oder weniger gut kalibriert. Ab einer gewissen Anzahl von Beobachtungen können neue Erkenntnisse abgeleitet werden, die beispielsweise anhand statistischer Auswertungen oder durch die Suche nach bestimmten Mustern in den Daten gewonnen werden. MehrfachsternbehandlungDiese Einheit untersucht Doppel- oder Mehrfach-Sternsysteme und Exoplaneten. Alle Objekte werden auf Muster untersucht, die nicht mit Einzelsternen übereinstimmen, und mit verschiedenen Modellen verglichen, die steigende Komplexität aufweisen. Die Einheit befasst sich mit den so erkannten Doppel- oder Mehrfachsystemen und identifiziert bedeckungsveränderliche Doppelsterne. Solarsystemobjekt-BehandlungDiese Einheit durchsucht die Daten auf Sonnensystemobjekte (SSO), vor allem aus dem Asteroiden-Hauptgürtel. Bei den so erkannten Objekten, bereits bekannte Objekten und neu entdeckten Objekten, werden die Bahndaten berechnet und ihre spektrophotometrischen Eigenschaften bestimmt. Dazu gehört auch die Massenbestimmung der schwersten Asteroiden und die direkte Größenmessung, Ermittlung der Rotationsperioden und der geometrischen Eigenschaften, Eigenschaften der Oberfläche und Spektralklassen. Source environment analysis (SEA), Analyse der umgebenden ObjekteDiese Einheit sammelt alle verfügbaren Beobachtungen eines Objekts über die gesamte Missionszeit. Die Kombination aller Daten erlaubt Rückschlüsse auf die Umgebung eines Objekts und lässt Rückschlüsse auf Objekte zu, die selbst nicht als eigene Objekte erfasst sind, aber einen Einfluss haben, z. B. nicht sichtbare lichtschwache Begleiter, Exoplaneten, schwarze Löcher, Neutronensterne etc. Auf diese Weise werden Astrometrie und Photometrie verbessert. Die Ergebnisse werden auch für die Analyse von Mehrfachsystemen und für die Untersuchung von ausgedehnten Objekten verwendet. Extended object (EO) analysis, Analyse von ausgedehnten ObjektenDiese Einheit betrachtet alle Objekte, die nicht punktförmig sind, z. B. Galaxien oder Galaxienkerne, und versucht ihre Gestalt zu bestimmen. Die Prozedur bestimmt auch Quasare und sucht nach Eigenschaften, die verhindern, dass sie als Objekte des Referenzrahmens genutzt werden können, z. B. durch den Einfluss der umgebenden Galaxie oder Linseneffekte. Analyse von veränderlichen SternenWährend der nominalen Missionsdauer werden durchschnittlich ungefähr 70–80 Beobachtungen von jedem Objekt gesammelt und auf photometrische Veränderungen untersucht. So erkannte veränderliche Sterne werden klassifiziert, eine Lichtkurve erstellt und Perioden ermittelt. Bestimmung der astrophysikalischen EigenschaftenDie gesamten Daten werden herangezogen, um jedes Objekt zu klassifizieren und dessen astrophysikalische Eigngenschaften zu bestimmen. Die Objekte werden bestimmt als Sonnensystemobjekt, Einzelstern mit Spektralklasse, Doppel- oder Mehrfachstern, Quasar, Galaxie etc. So erkannte Quasare werden wieder für den Bezugsrahmen zur Verbesserung der Astrometrie herangezogen. Sterne werden nach Spektralklassen eingeteilt. So bestimmte Parameter sind effektive Temperatur, Oberflächengravitation, Metallizität und Extinktion. Von den hellsten Objekten werden die Metallgehalte aus den RVS-Spektren ermittelt. Ergebnisse und KatalogeDie Ergebnisse der Arbeitsgruppen werden gesammelt und in Katalogen veröffentlicht, darin enthalten sind jeweils eine Reihe von Unterkatalogen. Alle Daten der Kataloge sind frei zugänglich und können von jedem genutzt werden. Die beteiligten Wissenschaftler benutzen die Ergebnisse für ihre eigenen Forschungsprojekte und können ihre Erkenntnisse in eigenen Publikationen unter ihrem eigenen Namen veröffentlichen, sie können dafür aber keine Daten benutzen, die bisher noch nicht veröffentlicht sind. Für bestimmte kritische Anwendungen können Daten für einzelne Objekte außerhalb der großen Publikationen veröffentlicht werden, dieses ist z. B. bei bestimmten Weltraummissionen der der Fall. Beispielsweise wurden für New Horizons im Vorfeld Daten für Okkultationen veröffentlicht. Der erste Katalog Gaia DR1 mit 1,1 Milliarden Objekten wurde am 14. September 2016 veröffentlicht. Der zweite Katalog Gaia DR2 mit 1,7 Milliarden Objekten wurde am 25. April 2018 veröffentlicht. Der dritte Katalog wurde in zwei Teilen veröffentlicht. Der erste Teil Gaia EDR3 mit 1,8 Milliarden Objekten mit verbesserter Astrometrie und Photometrie kam am 3. Dezember 2020 heraus. Der vollständige Katalog Gaia DR3 erschien am 13. Juni 2022, wegen Verzögerungen aufgrund der COVID-19-Pandemie, ein Jahr später als ursprünglich geplant.[18][19] Ein Update namens Gaia FPR (Focused Product Release) wurde am 10. Oktober 2023 veröffentlicht. Die Inhalte sind deutlich verbesserte Daten für Sonnensystemobjekte, Astrometrie und Photometrie des Kugelsternhaufens Omega Centauri mit ca. 500.000 neuen Objekten, Ergebnisse der Analyse von Quasaren und Gravitationslinsen, Analysen von interstellarem Gas und Absorptionslinien, sowie erweiterte Daten für variable Sterne mit langen Perioden.[20] Gaia DR4 soll die Ergebnisse aus 66 Monaten Beobachtung enthalten, erstmals auch mit einem Katalog von Exoplaneten. Er soll frühestens Mitte 2026 herauskommen. Der letzte Katalog Gaia DR5 soll nicht vor Ende 2030 herauskommen.[20] Weblinks
Literatur
Einzelnachweise
|