NEW UNITED NewsOrg

>>

Finirons-nous un jour par apprendre ?
Par Parker Terrell,
Journaliste

Nous ne sommes pas tous historiens.

Peut-être est-ce une partie de la raison pour laquelle nous semblons oublier les péchés de nos pères et de leurs pères avant eux, et ainsi jusqu’à l’aube de la civilisation. Ou peut-être est-ce le fait que pour la race humaine, pouvoir et devoir peuvent être fréquemment vus comme interchangeables.

Avant que vous ne fermiez vos canaux de communication en me considérant comme un luddite des temps modernes, laissez-moi vous dire que je ne suis ni un anti progressiste ni anti technologie. L’innovation est ce qui donne à l’humanité sa grandeur, ce qui lui confère sa première place dans l’univers. Le progrès nécessite de prendre des risques, c’est un fait.

Le problème est que généralement, notre approche de la technologie ignore ce qui a été fait avant, à la fois parce que le résultat final est plus important que des soucis de prudence et parce que nous sommes assez orgueilleux pour penser que nous ferons mieux cette fois. Mis à part quelques exceptions, chaque génération est plus avancée que la précédente, et donc nous croyons que nous ne pouvons pas nous tromper de la même manière que nos parents le firent. Ainsi, nous voilà à nouveau là. La nouvelle initiative d’IA d’ArcCorp, qui a été vertement critiquée depuis l’annonce faite il y a deux semaines, semble elle aussi se diriger vers les mêmes pièges que nos ancêtres.

Nous ne pouvons pas faire les mêmes erreurs.

Parfois, ce n’est même pas de notre faute si nous oublions. Cela a pris presque dix ans d’investigations de la part des médias pour obtenir la vérité du gouvernement à force de cajoleries, pour lui faire dire que, peut-être, il est possible (sarcasme) que l’IA utilisée dans le projet de terraformation ait été au cœur de la catastrophe martienne de 2125. À ce moment-là, personne ne voulait l’entendre.

Bien sûr, ce n’était même pas le premier désastre lié à une IA. C’est le si bien nommé incident de la “Voiture Lemming” en 2044 à Tokyo qui a cet honneur. Mais à peine 100 ans plus tard, le gouvernement décida que les erreurs des systèmes IA avaient été corrigés et en envoyèrent une sur Mars. Bien sûr, ils ne dirent pas un mot à ce sujet, juste au cas où ils se tromperaient.

C’était le cas.

Et donc juste 100 ans après la catastrophe de Mars (personne ne constate une coïncidence ici ?), vint l’Artemis. Janus. Même avec le spectacle grandiose du lancement, quelqu’un quelque part s’inquiétait de nous voir continuer à emprunter la voie dangereuse de l’intelligence artificielle. Mais cette fois, ils étaient sûrs d’avoir raison.

Il faut l’admettre, nous ne sommes pas certains que la disparition de 5000 personnes était entièrement la faute de l’IA, mais elle y a certainement joué un rôle.

Avec un échec de cette ampleur, le génie retourna dans la lampe pour un temps. Mais ce n’était pas terminé. L’UEEN avait simplement passé sous silence le lancement raté de leur dernier projet d’IA. Des documents récemment déclassifiés montrent à quel point nous étions proches d’entrer en guerre lors de ce qui devint connu sous le nom de l’incident Horus. Travaillant en collaboration avec Aegis, la Navy déploya une escadre de bombardiers Overlord pilotés par des IA le long du front Xi’An. Leurs intentions étaient bonnes : il s’agissait d’une tentative pour faire revenir chez eux des pilotes stationnés le long de la ligne Perry pendant toute leur carrière. Mais lorsque les joujoux à un milliard de crédits d’Aegis décidèrent que leurs communications avaient été compromises et les stoppèrent – juste à temps pour manquer leur ordre de repli – nous avons dû chercher et détruire nos propres erreurs, la fin d’Aegis dans l’industrie de la construction de vaisseaux. Bien sûr, nous ne sommes pas certains qu’ils nous auraient fait plonger dans une guerre complète avec les Xi’An en errant dans la zone neutre, mais qu’auraient-ils pu bien faire ?

Bien sûr, l’Imperator a essayé de garder cette embarrassante histoire à l’abri des médias. Pourtant, il semblait que pour une fois nous avions finalement ressenti une saine peur pour ne jamais utiliser à nouveau des IA dans des vaisseaux.

Maintenant, c’est au tour des corporations de croire qu’ils ne répéteront pas les erreurs des générations passées.

ArcCorp nous dit que son IA sera capable d’apprendre, ce qui la conduira vers le succès là où les autres ont échoué. (Où avons-nous déjà entendu cela ?) Mais voici pourquoi cela ne suffira pas : les humains “apprennent” aussi, et ça ne les empêche pas de se tromper. Ils doivent avoir des années d’expérience, un entraînement spécifique et la licence appropriée pour éventuellement se risquer dans l’espace. Mais ArcCorp veut à nouveau envoyer l’équivalent artificiel d’un enfant dans des immenses vaisseaux stellaires pour naviguer dans les confins de notre empire interstellaire.

Hé, c’est le progrès. Il protège des vies humaines. Cela doit arriver.

Pourquoi ne pouvons-nous pas apprendre ?

FIN DE TRANSMISSION

Traduction par Silver Gun

[Note : Article précédant la saga Ellis XI]