Mer et océan // Des bases de données de plus en plus complexes...

Les bases de données marines sont de plus en plus grandes (plusieurs dizaines de gigaoctets et teraoctets[1]) et rapidement évolutives (les données sont collectées d'heure en heure). Ces évolutions sont dues à la multiplication des plateformes autonomes de mesures in-situ (par exemple les flotteurs du réseau Argo[2]) et à l'amélioration des capacités de mesure des satellites de l'océan à haute résolution comme le futur satellite SWOT[3].

La communauté de recherche en océanographie physique est confrontée à une augmentation spectaculaire de la dimension et de la complexité des bases de données. Ce qui rend difficile leur exploitation avec les méthodes et outils standards. A Brest, une école d'été de 2 jours s'est tenue les 8 et 9 septembre, avec pour objectif de former les scientifiques à des solutions qui leur permettent de lever les verrous d'analyse de ces données de plus en plus complexes.

L'objectif, à terme, est de répondre à de nombreux défis scientifiques, comme par exemple, l'acquisition de la connaissance sur la dynamique des océans à grande et petite échelles, ou le développement des indicateurs globaux et régionaux des changements climatiques.

 

[1] Un teraoctet (To) équivaut à 1000 milliards d'octets ou 1000 gigaoctet (Go)
[2] 3000 flotteurs profilants (petits robots autonomes) mesurent la température et la salinité depuis la surface jusqu'à 2000 mètres de profondeur sur l'ensemble des océans. L'un des deux centres mondiaux qui recueille et distribue leurs données, est le centre Coriolis au Centre Ifremer Bretagne.
[3] dont le CERSAT au Centre Ifremer Bretagne centralisera les données.

 

Lettre du technopole

URL: http://www.tech-brest-iroise.fr
publié le 10 septembre 2014

©© a-brest, article sous licence creative common info