En cas d’apocalypse, 21 téraoctets de données ont été mis à l’abri en Arctique [Vidéo]

 

21 téraoctets de données open-source se trouvent maintenant sous le pergélisol norvégien pour être protégés et préservés. En cas d’apocalypse, les générations futures pourront alors les extraire pour les consulter.

 

 

GitHub

L’ancienne mine de charbon de Longyearbyen, en Norvège, où 21 To de données GitHub seront stockées pendant plus de 1000 ans

 

 

En novembre 2019, l’entreprise GitHub Universe, spécialisée dans l’hébergement de code-source, présentait son programme Artic Code Vault. L’idée : préserver des logiciels open source pour les générations futures.

 

Dès lors, GitHub a listé tous les référentiels publics actifs sur sa plateforme à archiver dans le coffre-fort. Parmi eux figurent notamment des plans codés utilisés pour créer toutes sortes de technologies, des systèmes d’exploitation fondamentaux aux programmes d’apprentissage automatique complexes. Bref, autant d’éléments utiles si nous étions amenés à repartir de zéro.

 

Le but de l’Arctic Code Vault est en effet de garantir que « les souvenirs numériques les plus irremplaçables au monde de l’art, de la culture et de la littérature » soient protégés en cas de menace existentielle pour l’humanité. Qu’elle soit portée par une guerre nucléaire, le changement climatique ou une pandémie.

 

Notez que ce coffre-fort contient déjà un certain nombre de dépôts de données des Archives nationales du Mexique et du Brésil, de la Bibliothèque du Vatican, du Musée national de Norvège, de l’Agence spatiale européenne, et d’un certain nombre d’autres organisations.

 

 

Des données préservées dans le permafrost

Ceci étant dit, ce dépôt officiel vient d’être effectué avec succès le 8 juillet 2020, a indiqué la firme.

 

Ce coffre-fort de données a plus précisément été stocké dans l’Arctic World Archive. Cet espace d’archivage « construit pour durer 1000 ans » a été ouvert le 27 mars 2017 à l’initiative de l’entreprise norvégienne spécialisée Piql et de la compagnie minière détenue par l’État norvégien, Store Norske Spitsbergen Kulkompani (SNSK). Il est installé dans une ancienne mine de charbon sur l’île norvégienne de Spitzberg, dans le Svalbard.

 

C’est également dans la même région que se trouve la réserve mondiale du Svalbard, qui stocke plusieurs millions d’échantillons de graines provenant du monde entier. Là encore, pour les préserver au cas où l’espèce humaine serait menacée.

 

« Le voyage du code a commencé dans les installations de Piql à Drammen, en Norvège », a expliqué GitHub. « Les boîtes contenant 186 bobines de films ont été expédiées vers l’aéroport d’Oslo, puis chargées dans l’avion à destination de la région du Svalbard ».

 

« Le code a ensuite atterri à Longyearbyen, une ville de quelques milliers d’habitants, située dans le Svalbard. Accueillies par une société de logistique locale, les boîtes ont été transportées pour la nuit dans un entrepôt intermédiaire sécurisé », ajoute l’entreprise. « Elles ont été déposées le lendemain matin dans l’Arctic World Archive ».

 

C’est donc dans une chambre forte située à une centaine de mètres dans le permafrost que les 21 téraoctets de données open-source sont maintenant stockés.

 

 

Données - 1

Crédits : GitHub

 

 

Des données lisibles par l’Homme

Un guide en cinq langues est associé à chaque archive à l’attention de celles et ceux qui s’intéresseront à l’Artic Code Vault.

 

En outre, les données sont stockées sur piqlFilm, un support ultra-durable qui pourra être lu avec un ordinateur. Cependant, le coffre-fort contient également une bobine de films lisible par l’Homme, au cas où la technologie nécessaire ne serait pas disponible à l’avenir.

 

« Nous nous attendons à ce que vous n’ayez pas besoin de nos définitions de logiciel. Nous imaginons que vous aurez vos propres ordinateurs, probablement beaucoup plus avancés que les nôtres » peut-on lire à l’attention des futures générations. « Cependant, il est possible que vous ayez des ordinateurs inférieurs, voire aucun ordinateur du tout. Dans le cas de cette éventualité, nous avons préparé une bobine de données non compressée, non codée et lisible par l’Homme ».

 


 

Time : 2 mn 27 [Vostvfr] / [1]

 


 

Source : 

https://archiveprogram.github.com/

https://en.wikipedia.org/wiki/GitHub

https://sciencepost.fr/donnees-open-source-arctique/

https://www.businessinsider.com/github-data-stored-norway-arctic-code-vault-2020-7

https://www.sciencealert.com/giant-21tb-haul-of-source-code-buried-in-arctic-mineshaft-vault-for-an-unknown-future

https://www.zdnet.fr/blogs/l-esprit-libre/au-pole-nord-github-va-stocker-des-logiciels-open-source-pour-mille-ans-minimum-39893995.htm

 

Article :

Brice Louvet, rédacteur sciences / Sciencepost / Science Alert

 

Vidéo :

[1] GitHub Arctic Code Vault – GitHub / YouTube

 

Photo :

Pour illustration

 

Voir notamment :

Arctique | Svalbard Global Seed Vault : L’arche de Noé végétale [Vidéos]

12 commentaires

  1. En cas d’apocalypse, les générations futures reviendront à l’âge de pierre…s’ils survivront. Sinon, le manuel de survie est plus utile que ces GitHub Arctic Code Vault.

    J’aime

  2. Merci pour cet article fort intéressant.
    Cela m’étonne cependant beaucoup que personne n’ait encore réagi en ce qui concerne la QUANTITE de données stockée: « 21 téraoctets » disent-ils … réfléchissez deux minutes: 21 téraoctets seulement pour stocker les travaux de centaines de milliers de chercheurs du monde entier ?!? Il doit y avoir une erreur sur les chiffres la … 21 teraoctets c’est sept disques durs de 3To chacun (90 euros l’unité): de quoi stocker 500 films 4k compressés en mkv. 21 téraoctets ca me semble ridicule comme quantité, d’ailleurs d’ou sort ce chiffre ? Je n’en vois pas trace ni dans l’article de Zdnet ni dans archiveprogram …

    J’aime

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.