Robot Buddy Hopital enfant Suisse

Nouvel épisode de notre podcast Futurs Numériques sur Graffiti Urban Radio. Enregistré le 22 décembre dernier, nous avons abordés de nombreux thèmes. Le robot compagnon Buddy pour accompagner un enfant malade en Suisse, l’IA française Mistral, la nouvelle version du robot Optimus de Tesla, le calculateur Deepsouth, Copilot sait chanter, un générateur de présentations et les futurs vols habités lunaires.

(suite…)

Anymal Anybotics

Nouvel épisode de notre podcast Futurs Numériques sur Graffiti Urban Radio. Enregistré le 4 décembre dernier, nous avons abordés de nombreux thèmes. Un robot quadrupède qui se transforme en humanoïde, une IA qui créé des millions de nouveaux matériaux, un retard dans le retour sur la Lune, des centrales nucléaires Nuward de poche, un panneau d’information dans votre smartphone, une IA pour créer des vidéos, tout sur les VPN et l’éthique de l’IA.

(suite…)

Comment générer une vidéo par des IA ?

En Route vers le Futur revient pour une nouvelle saison. Le premier épisode permet de s’initier aux IA génératives (création de textes, d’images, de musique). La vidéos est une succession de tutoriels simples et concis. Produire une vidéo à l’aide d’IA n’est qu’un prétexte pour présenter chacune d’elles.

(suite…)

Amiga Camping Podcast

Dans cet épisode spécial Amiga Camping 2023 de l’émission Futurs Numériques sur Graffiti Urban Radio, Emmanuel Chopot et Frédéric Boisdron se sont entretenus avec deux intervenants de l’évènement rétro-computing de Venansault en Vendée. D’un côté Jérôme Senay, éditeur de logiciels et rédacteur en chef du magazine Boing nous raconte l’histoire de l’ordinateur Amiga. De l’autre côté, Sébastien Guebels, membre de l’association MSX Village qui promeut l’ordinateur MSX. Retour dans les années 80 de l’informatique !

(suite…)

Cannes blanche électronique

Près de 300 millions de personnes sont malvoyantes à travers le monde et à côté de cela, des chercheurs travaillent dur pour ajouter la vision aux robots. Jagadish Mahendran, de l’Institut d’Intelligence Artificielle, à l’Université de Georgie, trouve cette situation plutôt … ironique.

C’est en 1930 que Guilly d’Herbemont constate que les personnes malvoyantes de son quartier parisien courent un grave danger à chaque fois qu’ils sortent de chez eux. Les véhicules motorisés prennent de plus en plus de place dans la ville. En s’inspirant des bâtons blancs des gendarmes dévoués à la circulation, elle invente la canne blanche afin d’attirer l’attention. C’est plus tard que cette canne blanche servira également à balayer son environnement pour détecter les obstacles. Une canne blanche, malgré ce que pensent les voyants, n’est pas réservée aux personne en cécité totale. Elle permet avant tout d’indiquer l’handicape et donc qu’il faut en prendre compte dans son propre déplacement. D’ailleurs, cette signalisation visuelle est également un frein pour son adoption pour certaines personnes malvoyantes qui n’ont pas forcément envie d’afficher leur handicape.

Il existe déjà des assistants utilisant la technologie pour aider les personnes malvoyantes à se déplacer dans la rue. Elles permettent à leurs porteurs de ne pas être obligé d’aller jusqu’au contact pour ressentir les obstacles.

L’Ultracanne est une canne blanche électronique qui repère les obstacles grâce aux ultra-sons. Elle détecte les obstacles qui peuvent surgir aux pieds de son utilisateur ou bien qui pourraient toucher l’utilisateur sur le haut du corps. La canne perçoit sur des distances qui se comptent jusqu’à 4 mètres. La canne prévient son utilisateur en faisant vibrer plus ou moins fort un des deux boutons situés sous le pouce. Un bouton pour les obstacles situé vers le bas et un autre pour les obstacles pouvant gêner le haut du corps.

La canne blanche électronique Sherpa peut être pilotée par la voix. © Handisco

La canne blanche Sherpa utilise plutôt le son à travers une oreillette bluetooth. L’appareil fonctionne comme un assistant vocal de type Alexa ou Google Home. L’utilisateur pilote l’appareil par la voix et reçoit des informations liées à sa situation GPS. L’oreillette peut lui indiquer l’heure d’arrivée du prochain bus, la distance et l’orientation pour rejoindre une adresse, des monuments ou des rues. L’orientation est indiquée en heure. ‘Douze heure’ étant la direction pour aller vers l’avant, ‘3 heures vers la droite’, ‘9 heures vers la gauche’ et ‘6 heures’ indique qu’il faut faire demi-tour. La canne indique également à son utilisateur la couleur du feu des piétons.

La jeune startup GoSense a développé un bouclier virtuel intelligent sous la forme d’un boîtier équipés de capteurs à ultra-sous, à installer sur le manche de n’importe quelle canne blanche du marché. Elle propose à son utilisateur de percevoir son environnement avec un système audio en réalité augmentée. L’environnement est retransmit sous forme d’un son spatialisés dans un casque audio. Chaque obstacle est retranscrit par un cliquetis qui est perçu dans la direction de celui-ci, incluant sa hauteur. La vitesse du cliquetis donne la notion de distance. Cela permet de se faire une image mentale virtuelle de son environnement. La partie intelligente est sous-traitée par un smartphone caché dans la poche. L’application va également donner des informations audios sur le lieu détecté par son GPS, comme les horaires des trams et autres bus.

C’est quoi la différence entre les embouts ?

Effectivement, les cannes blanches possèdent trois type d’embouts principaux, suivant le terrain. Le plus petit est fixe, il glisse sur le sol et est parfait pour être utilisé dans un bâtiment, sur un béton lisse, un plancher ou un carrelage avec peu de relief. A l’extérieur, ces embouts ne pourront servir qu’à se signaler.

Les embouts tournants simples, que certains appellent guimauve à cause de leur forme et consistance, tournent autour de leur axe central et roulent pendant le balayage. C’est l’embout le plus utilisé car il assiste le mouvement de balayage sur des sols rugueux intérieurs comme extérieurs.

Enfin, la rolling ball est un embout tournant un peu plus gros, en forme de boule. Elle servira principalement sur des trottoirs en mauvais état, des chemins en terre ou du sable.

Au fait, cela veut dire quoi les dalles aux sol ?

Tu as raison d’ouvrir ici cette parenthèse. Vous avez dû remarquer les dalles striées que l’on perçois sur certains trottoirs, notamment près des carrefours ou à la sortie des supermarchés ? Ce sont en réalité des parcours podotactiles pour les personnes malvoyantes qui balayent ces dalles. Elles donnent des indications grâce à leur relief. Les dalles striées indiquent le sens de la marche.

Des dalles en caoutchouc ou un simple espace vide de 70 cm de côté vont indiquer un embranchement de parcours podotactiles emmenant dans des directions différentes.

Des dalles recouvertes de plots indiquent une alerte, qui invite à s’arrêter. Cela peut-être avant un passage piéton, en haut d’un escalier ou à un point remarquable, qui peut être un guichet d’information, un arrêt de transport en commun ou une borne d’appel.

Jagadish Mahendran espère que les personnes malvoyantes pourront un jour se passer de canne blanche. © Institut d’Intelligence Artificielle de l’Université de Georgie

Je reviens maintenant sur Jagadish Mahendran, de l’Institut d’Intelligence Artificielle, à l’Université de Georgie, dont nous avons parlé tout au début. Face à l’ironie de développer la vue aux robots alors que 285 millions de personnes sont malvoyantes sur Terre, il décide de mettre ses connaissances et la technologie à leur service.

Jagadish utilise OpenCV, une bibliothèque graphique libre développée par Intel, capable de traiter les images en temps réel. Ces images sont filmées par deux caméras avec détection de profondeur OAK-D, semblable aux capteurs Kinect de la Xbox. Celles-cis sont logée discrètement sous un vêtement au niveau de la poitrine et dans un sac banane. Un ordinateur et sa batterie d’une durée de travail de 8h sont placés dans un sac à dos équipé d’un récepteur GPS. Il récupère les données des caméras et traite leurs images en direct par une intelligence artificielle qui renvoie le résultat de son analyse, via une voix synthétique, dans une oreillette bluetooth.

Le système détecte l’ensemble des obstacles, lit les panneaux et détecte les changements de dénivellation, comme un trottoir. A un passage piéton, l’appareil détecte le couloir des piétons et guide son utilisateur dans sa direction. La petite voix va donc donner continuellement des informations sur ce qu’elle perçoit. Elle vous dira d’éviter un obstacle par la droite ou la gauche ou de baisser la tête pour éviter un feuillage. Ce sont des messages très courts. Sur notre exemple de feuillages au niveau de la tête, la voix va juste signaler « top front » ce qui signifie qu’un obstacle est devant en haut. Il faudra donc baisser la tête.

Dans la rue, l’intelligence artificielle pourra, suite à une demande vocale de votre part, vous décrire ce qu’elle voit. La reconnaissance des formes va entrer en action et vous décrire les obstacles, les feux de signalisation, les parcours podotactiles, les personnes, animaux ou véhicules sur votre chemin. Chaque élément est indiqué avec sa direction en heures.

Si vous lui demandez votre localisation GPS, il vous indiquera votre adresse géographique et pourra vous guider à un lieu précis.

Ce système est encore en cours de développement et est testé dans la banlieue de Los Angeles en Californie. Le but est ici de se passer d’un chien d’aveugle et même d’une canne blanche. Il se veut discret afin qu’à l’avenir ses utilisateurs n’aient plus besoin d’être particulièrement visibles pour se déplacer en toute sécurité.

Ces recherches ne déboucheront probablement pas d’un produit avant quelques années encore. La canne blanche a encore un peu de répits avant de partir à la retraite.

Space Perspective

Avez-vous déjà rêvé de monter assez haut pour voir la courbure de notre planète ? Space Perspective vous propose de monter à bord ! © Space Perspective

Peut-être rêvez-vous de monter assez haut afin de voir la courbure de la Terre ? Le tourisme spatial qui devrait émerger dans les prochains mois avec la petite navette SpaceShipTwo de Virgin Galactic, la capsule NewShepard de Blue Origin ou les vols dans la Station Spatiale Internationale avec Space Adventure qui seront proposés à des tarifs très élevés. 250 000 € pour un saut de puce et plusieurs millions pour un séjour en orbite.

Space Perspective, une entreprise américaine, propose une nouvelle voie pour un tarif un peu moins élevé. Pour la moitié de la valeur d’une place dans SpaceShipTwo ou New Shepard, soit environ 120 000 €, vous pourrez vous envoler dans une nacelle pressurisée attachée à un ballon stratosphérique jusqu’à une altitude de 30 km, assez pour voir distinctement la courbure de la Terre et avoir une vue proche d’un passager d’une mission spatiale.

La nacelle, appelée Neptune, peut embarquer 8 personnes, elle contient un bar et des toilettes et offre une vue panoramique sur notre planète. Après le décollage depuis la Floride, le ballon mettra deux heures pour atteindre les 30 km d’altitude. Vous resterez ensuite pendant 2 heures à admirer notre planète et sa fragilité, dans les hautes couches de l’atmosphère en dérivant en direction de l’océan atlantique. Puis vous redescendrez pendant 2 heures supplémentaires jusqu’à l’océan où un bateau vous récupérera.

Space Perspective prévoit que, parmi sa clientèle, certains voudront en profiter pour y célébrer des évènements de groupes comme des mariages ou des concerts. Il est également possible que Neptune soit utilisé de temps en temps pour des études scientifiques sur l’atmosphère, le climat ou la météorologie.

Pas de soucis pour vos réseaux, vous pourrez accéder à Internet à tout moment et donc aux réseaux sociaux pour vous pavaner avec la Terre en fond.

Le tarif est moitié moindre que Virgin Galactic ou Blue Origin, mais Neptune ne va pas jusqu’à l’espace situé à 100 km d’altitude, et encore moins en orbite. Vous ne pourrez donc pas goûter aux joies de l’apesanteur, vous aurez toujours les pieds au sol. Je dirais même que si vous ressentez une apesanteur, c’est qu’il y a un problème, c’est que vous tombez, tout simplement ! Par contre, ce voyage de 6 heures en tout est bien plus long que les sauts de puces spatiaux qui se déroulent en moins de 3 heures pour Virgin Galactic et en moins de 15 mn pour Blue Origin, les deux avec seulement quelques minutes réellement dans l’espace.

L’entreprise a fait une dernière levée de fonds de 7 millions de dollars en décembre dernier. Le premier vol devrait avoir lieu dans les prochains mois avec une nacelle vide et non pressurisée afin de valider le concept. Les vols commerciaux pourraient commencer à partir de 2024.

Mars Smiley

Un robot qui vous suit pour que vous achetiez des bonbons, cela vous tente ? © ShopRite

Peut-être évitez-vous de regarder le mini-rayon bonbons et chocolats que l’on trouve à l’entrée des caisses de supermarchés pour ne pas être tentés de prendre une barre chocolatée. La société Mars, qui produit de nombreuses confiseries comme les barres Mars ou les M&Ms a bien compris que vous aviez appris à ne pas vous faire avoir par la tentation.

C’est pourquoi elle teste un robot pour vous appâter à l’intérieur même des magasins. Le robot Smiley est dérivé des robots du constructeur Relay de Savioke, qui s’occupe de petites livraisons dans les hôtels ou des entreprises.

Je sens que ce robot Smiley va vite devenir énervant dans les magasins car celui-ci suit les clients et les invite à se servir d’un paquet de confiserie dans l’étalage qu’il transporte.

Vendre des bonbons n’est pas sa fonction principale. En réalité, il est surtout là pour étudier les déplacements et habitudes des clients dans le magasin. Ils proposent ainsi aux propriétaires un moyen d’améliorer leur magasin pour coller au mieux aux habitudes de ses clients.

Le robot Smiley est pour le moment en période de test dans un magasin alimentaire ShopRite à New-York.

Pas sûr que ces étalages mobiles donnent une bonne image du robot, surtout si on imagine un magasin où plusieurs robots de ce type seraient déployés. C’est légèrement anxiogène, même pour moi.

Vallée de l’étrange

Avez-vous déjà ressenti un malaise en voyant un robot recouvert d’une peau synthétique ? Quel sentiment ce robot de télé-présence, le Telenoid, vous procure t-il ? Une peur ? Un dégoût ? Un malaise ? Hé bien, c’est parfaitement normal ! Vous êtes entré dans l’Uncanny Valley, ou vallée de l’étrange !

La vallée de l’étrange est une théorie qui met en évidence un malaise que l’on perçoit naturellement face à ce qui ressemble à un être vivant, tout en ne l’étant pas.

Pour bien comprendre, nous allons tracer un graphique. En abscisse, nous traçons une droite représentant le degré de ressemblance d’une apparence humaine, ou du moins animale. Tout à gauche, nous avons le grille-pain ou la représentation d’un caillou. C’est à dire, quelque chose de totalement inanimé, en dehors de la tartine éjectée bien sûr. Plus nous allons sur la droite et plus cet objet ou cette représentation ressemble à un humain, ou un animal.

Pour l’ordonnée, nous allons schématiser notre degré de familiarité. Plus nous allons vers en haut, plus nous ressentons une familiarité, une empathie positive pour l’objet que nous avons en face de nous. Au contraire, plus nous allons vers le bas, plus nous ressentons un dégoût, une peur, voire une angoisse face à cet objet.

Les robots humanoïdes recouverts d’une peau synthétique sont eu fond de la Vallée de l’Etrange. © Intelligent Robotics Laboratory

D’une manière générale, plus un objet prend un aspect humanisé, plus nous nous projetons dans celui-ci. Nous développons une empathie. Nous lui prêtons une humanité.

Plus un robot ressemble à un humain, plus nous imaginons que celui-ci possède une intelligence artificielle évoluée. Ce qui est totalement faux en vérité. Un assistant vocal comme Alexa, Siri ou Google Home sont bien souvent plus aptes à tenir une conversation avec vous qu’un robot à apparence humaine. C’est dire !!

C’est dans cet esprit que de nombreux ingénieurs veulent développer des robots compagnons reprenant les traits d’un être vivant. Plus humanisé il sera, plus nous pourrions prendre confiance en lui, car nous nous plaçons en empathie avec lui.

Graphique : Vallée de l’Etrange.

Bref, traçons une ligne représentant cette évolution de l’empathie telle que l’on pourrait l’imaginer.

Sauf que….

En réalité, la ligne ressemblerait un peu plus à ça !

Voyez ce grand creux dans la ligne, ressemblant à une vallée entre deux montagnes ?

La vallée de l’étrange !

Exactement, c’est l’Uncanny Valley ou Vallée de l’étrange en français.

D’où vient cette cassure ?

Pendant des siècles, même des millénaires d’évolution de nos machines, elles ont suivies le début de la courbe. Même arrivés au début de l’ère du robot, les premiers bras industriels étaient très loin de ressembler à des humains. Leurs gestes, très mécaniques, étaient loin de nous faire peur. Sauf si l’on avait peur de se prendre un coups, bien sûr.

Mais ces dernières années, des robots ressemblant à des humains, des insectes, des chiens ou des chats, ont commencés à se rapprocher du haut de la première colline. De plus, ces robots ont commencés à avoir des mouvements beaucoup plus fluides. Et un premier début de malaise est apparu chez les personnes les observants.

Pourquoi ?

Tout simplement, ces robots ont une apparence que notre cerveau associe de façon totalement inconsciente à un être vivant. Or, toujours ce sacré cerveau, s’aperçoit qu’il y a en réalité un décalage avec ce qu’il attend d’un être vivant. Cela ressemble mais pas complètement. Ses mouvements sont fluides, mais pas complètement. Des détails coupent l’illusion. Et notre cerveau se met en alerte !

Toujours inconsciemment, notre cerveau se met à interpréter ce qu’il voit. L’être devant lui est-il malade ? Devons-nous fuir pour ne pas être contaminé ? Notre cerveau interprète exactement comme s’il était face à un cadavre. C’est pourquoi, inconsciemment, même si l’on est ouvert à la technologie, nous avons naturellement peur d’un robot qui sera recouvert d’une peau synthétique comme cet androïde, ou qui aura des mouvements d’une fluidité proche d’un animal comme le Bigdog.

Pour mieux comprendre, je vais placer quelques exemples sur notre courbe. Ici, au tout début, nous pouvons mettre le bras robot industriel. Ses gestes et son apparence n’ont absolument aucun lien avec un être vivant. Ses mouvements sont rythmés avec la tâche qu’il a à accomplir, purement mécanique.

En allant vers la droite, nous allons placer des robots à apparence de plus en plus humanoïde, ou du moins animale. C’est ainsi que l’on peut placer ici, les peluches robotisés. Elles possèdent très peu de mouvements. Elles sont mignonnes dans leur apparence et leurs jappements, mais elles ne font l’illusion que si l’on a envie d’entrer dans leur jeu. Très vite, leur partie purement mécanique se devine sous la peluche.

Un peu plus loin encore, nous trouvons les robots humanoïdes de type Nao, Pepper ou Robi. Leurs gestes commencent à gagner en fluidité. Leur apparence se rapproche encore un peu plus de l’humain. En plus, ils parlent, voire tentent de suivre une conversation. Mais leur coque plastique et leurs grands yeux les font classer par notre cerveau comme des machines. Impressionnantes, mais encore des machines. Ces robots vont pourtant exprimer ce qui pourrait ressembler à des émotions, comme la peur, le rire ou la compassion. Mais ces émotions, bien évidemment scriptées, ne sont retransmises que par des jeux de lumière ou des gestes comportementaux reproduit sans la moindre créativité. La plupart des robots, surtout au niveau grand public, ne dépassent pas ce niveau de réalisme pour le moment.

Pour l’anecdote, Aldebaran Robotics, le constructeur original de Nao, a longtemps hésité à afficher ce qui peut ressembler à des yeux. Justement pour ne pas basculer dans la vallée de l’étrange.En réalité, les caméras sont situées dans ce qui pourrait ressembler à la bouche et au niveau du front. Au niveau des yeux, ce sont des récepteurs infrarouges.

Quand aux robots Spot et Atlas de Boston Dynamics, ils entrent dans la vallée de l’étrange. S’ils ne bougent pas, ils ressemblent en tout point à des machines, mais ce sont leurs mouvements fluides et leurs comportements face à une perte d’équilibre ou une chute qui leur donne un côté animal, voire qui leur donne un aspect dangereux. Les films et séries de science-fiction à la Terminator ou Black Mirror nous confortent dans une une impression de danger. Par contre, à l’inverse, nous développons de l’empathie pour eux grâce à leur forme humanoïde ou proche du chien. Lorsque les ingénieurs testent les réflexes de leurs robots, en les poussant pour les faire tomber ou faire tomber ce qu’ils portent, les gens y voient inconsciemment de la violence. Ils projettent une personnalité dans ces machines, qui finalement ne sont pas plus évoluées qu’un grille pain au niveau des sentiments. Cela reste des machines, à apparence vivante, mais de simples machines.

Si, par hasard, vous voulez en savoir plus sur les robots de Boston Dynamics, vous pouvez suivre ma vidéo qui leur est consacrée dans cette fiche !

Depuis quelques années, fleurissent les robots recouverts de peau synthétique, recherchant au maximum à nous ressembler. Sur une photo, nous pourrions nous faire avoir, mais dès que le robot est animé, notre cerveau capte des détails qui le choque. Les mouvements qui ne sont pas naturels, qui sont répétés et pas toujours très fluides. Des mains souvent très grosses, et sans vie, par rapport au reste du corps. Des mouvements de cheveux saccadés. Un visage trop parfait, les pores de la peau, un léger duvet sur la peau du visage, un regard perdu, un sourire forcé, une peau plissée ou au contraire trop étirée, une position ou démarche qui manque de naturel. Tous ces détails donnent un aspect malade, voire cadavérique. Ils créent une dissonance de l’empathie.

Le robot HRP-4C dansant parmi deux humains. © AIST

Notre cerveau nous alerte inconsciemment : partez, fuyez !

D’où une peur, ou du moins un malaise qui s’installe en voyant ces robots bouger. Nous sommes bien au creux de la vallée de l’étrange.

Comment en sortir alors ?

Le seul moyen est :

  • soit de revenir à un aspect plus plastique, avec de grands yeux mignons façon manga, ce qui est le choix de la plupart des constructeurs de robots de service,
  • soit pousser la ressemblance au maximum jusqu’à ce que notre cerveau ne voit plus la différence du tout. Même si consciemment, nous sommes au courant que nous avons un robot devant nous, si notre inconscient ne fait plus la différence, nous seront sortis de la vallée de l’étrange.

Aujourd’hui, aucun robot n’a réussi à sortir de la vallée de l’étrange. Nous en sommes même encore très loin. Il faudra probablement encore quelques dizaines d’années pour avoir des robots mimant parfaitement notre humanité sur le plan physique.

Cela se limite aux robots ?

Dans les faits, ce malaise dépasse largement le cadre des robots. Dès 1906, le psychiatre berlinois Ernst Jentsch parle de la notion d’ « inquiétante étrangeté ». Il décrit que les masques ou les maquillages de clowns donnent un air inquiétant à ceux qui les portent, puisque notre cerveau n’arrive pas à interpréter correctement les émotions de leur porteur. D’ailleurs, certaines personnes sont touchées par ce phénomène à de très haut niveaux, c’est la coulrophobie, c’est à dire la phobie des clowns. D’autres ont la phobie des poupées, particulièrement des poupées de porcelaine, la pédiophobie.

Freud va continuer, plus tard, à théoriser cela en décrivant de légers décalages entre une reproduction du vivant et la réalité, laissant apparaître des détails imperceptibles, créant le malaise.

Mais c’est le roboticien japonais Masahiro Mori, en 1970, qui publie un article scientifique intitulé Uncanny Valley qui décrit parfaitement la vallée de l’étrange, telle qu’on la connaît aujourd’hui.

Depuis, nous avons découvert qu’en plus des masques, des poupées ou des robots, nous avions le même problème avec les images de synthèse dans les films et les jeux vidéos. Tant que le dessin reste cartoon, nous ne percevons aucun malaise. Mais si l’on tente de se rapprocher de la réalité, nous pouvons de nouveau entrer dans la vallée de l’étrange. Pensez notamment à la comédie musicale Cats ou le film d’aventure « Le Retour de la Momie », où Dwayne Johnson incarne le Roi Scorpion. Les images des effets spéciaux étaient sensiblement ratés et la tête de The Rock manquait cruellement de naturel. Nous tombons de nouveau dans les mêmes travers que la vallée de l’étrange. Le même problème apparaît dans le premier Toy Story. Rien à dire sur les jouets, mais par contre les personnages humains d’Andy où du terrible voisin Sid, voulant être un peu plus réaliste, peuvent provoquer un dégoût, un malaise.

C’est pareil pour tout le monde ?

Pas du tout. Chaque personne perçoit cette vallée de l’étrange différemment. Elle peut-être très prononcée ou au contraire inexistante. Elle peut être plus à gauche ou plus à droite. Un joueur de jeux vidéo des années 90 est habitué à voir des personnages plus ou moins réalistes en 3D et ne s’émeut que très peu sur le niveau de réussite d’un personnage en images de synthèse dans un film. Cela va peut le choquer sur la qualité graphique mais pas forcément sur un éventuel malaise.

En Europe, nous avons une culture judéo-chrétienne. Chez les croyants, seuls les humains ont une âme. Même les animaux n’en ont pas, alors un objet… Même chez les athées, cette notion est restée ancrée dans la culture. Nous sommes donc bien plus sujet à la vallée de l’étrange qu’en Asie. Là-bas, la culture est bien plus proche de l’animisme, qui projette des esprits sur chaque animaux et même chaque objets. Donc une machine peut tout à fait intégrer quelque chose qui se rapproche de la notion de l’âme. Une machine douée de mouvements ou d’une apparence humanoïde les choque bien moins que dans la culture européenne.

A l’avenir, si la vue d’un robot vous fait peur, vous saurez pourquoi !

Polar Pod

Le navire Polar Pod dans sa position verticale. © SHIP ST

Le 30 juin 2012, le navire RV Flip, de 108 mètres de long et construit en 1962, subit d’importants dommages qui laissent remplir ses cales situées au centre du navire en eau salée. Dans cette horreur, le navire qui a tourné ses images n’a même pas pris la peine d’aller chercher les derniers passagers à bord. Un véritable drame pour la marine.

Ou pas ! (caméra approchée)

L’eau de mer est effectivement entrée dans le navire. Mais c’était totalement prévu ! RV Flip est un navire vertical. En gros, il est remorqué par un autre navire jusqu’à destination. Ensuite, des ballast semblables aux sous-marins s’ouvrent pour se remplir en eau. L’avant étant lesté par du béton, celui-ci finit par prendre la direction des fonds marins. Mais le ballast central contient juste ce qu’il faut pour garantir l’équilibre afin que la partie arrière se retrouve toujours au-dessus du niveau de la mer, qu’importe la hauteur des vagues.

A l’origine, le RV Flip a été construit par les Etats-Unis pour écouter les fonds marins pendant la guerre froide. Avec un tirant d’eau de 80 mètres de profondeur, l’écoute n’était plus parasitée par les bruits de la surface. A la fin de la guerre froide, le navire a été réaffecté à l’Institut Océanographique californien pour de la recherche scientifique.

Le célèbre explorateur français Jean-Louis Étienne, qui a notamment été le premier à atteindre le pôle Nord en solitaire en 1986, a pour projet de construire son propre navire d’étude océanographique sur le même principe que le RV Flip, sous le nom Polar Pod.

Légèrement plus petit, avec ses 90 mètres, le Polar Pod est surtout plus simple dans sa construction. Il consiste en un ensemble de tubes d’aciers, avec des ballast aux centre et un lest en béton de 150 tonnes à l’avant. A l’arrière, se trouve une nacelle contenant 3 étages. On y trouve des laboratoires, une salle informatique et les habitations.

Après avoir testé une maquette dans un bassin nantais pour tester sa flottabilité et les contraintes en cas de forte houle il y a quelques années, le projet Polar Pod est en train de lancer un appel d’offre pour sa construction qui devrait démarrer l’année prochaine, pour une durée d’environ 7 mois. Les premiers campagnes d’essais sont prévues pour 2023.

Entre 2024 et 2026, le Polar Pod partira pour une mission de 3 ans avec 7 passagers, 3 marins et 4 scientifiques, à bords se relayant tous les 3 mois. Il devrait faire deux tours du monde, emporté par les courants marins de l’océan austral entourant l’antarctique, dans ce que l’on appelle les 40e Rugissants. Avançant très lentement, il pourra se faire aider par deux voiles qui pourront être déployées sur le flanc de la nacelle.

Quelle sera sa mission ?

Plusieurs missions sont prévues lors de ces 3 ans. Il va étudier les conséquences de nos rejets de CO2 sur l’océan Austral et sa capacité à l’absorber. Il aura une mission de recensement de la faune marine, du plancton microscopique aux grands mammifères marins. Le Polar Pod va également aider à la calibration des mesures satellites en validant les données reçues afin qu’elles collent au mieux à la réalité. Enfin, le navire mesurera la pollution provenant des micro-plastiques ainsi que la pollution sonore provenant de notre activité.

Hot Fire de la SLS réussie

Le Green Run du futur lanceur géant SLS s’est déroulé sans accroc. © NASA

Tout le nouveau programme lunaire habité de la NASA repose sur la fusée Space Launch System, la SLS. Cette fusée géante reprend une bonne partie des caractéristiques de la fusée emblématique Saturn V qui a transporté les 6 missions lunaires habitées Apollo entre 1969 et 1972. Afin de réduire les coûts de développement, elle repose sur les technologies éprouvées par les anciennes navettes spatiales Shuttle qui ont volées entre 1981 et 2011.

Le nouveau programme habité lunaire, Artemis, devrait démarrer officiellement en novembre prochain (fiche vers HS) avec le décollage de la mission Artemis 1. Ce sera le vol inaugural de cette nouvelle fusée géante, dans sa version block 1, de 98 mètres de haut. Ce premier vol sera une répétition générale, à vide, sans astronautes, de la mission suivante Artemis 2. Elle transportera le nouveau vaisseau Orion, dont le module de service est d’origine européenne, jusqu’à une orbite de transfert. Ensuite, Orion sera propulsé en direction de la Lune. Le vaisseau en fera deux fois le tour, avec deux phases à basse altitude, 100 km du sol lunaire, et une, au contraire, très éloignée à 60 000 km.

Pourquoi si éloigné ?

Artemis 1 est une répétition générale d’Artemis 2 qui aura lieu en juillet 2023. Celle-ci sera habitée par 3 astronautes États-uniens ainsi qu’un astronaute canadien. Elle fera en gros la même chose que la mission Apollo 8 en 1968. Pour se démarquer d’Apollo 8, Artemis 2 se devait de faire une première. Et ce sera simplement la mission habitée la plus éloignée de la Terre de l’histoire.

Si aujourd’hui on parle de la fusée SLS qui emportera les missions Artemis, c’est parce qu’elle a enfin complété la validation de ses tests du Green Run. Le18 mars dernier, la fusée qui servira pour Artemis 1 a été mise en condition de vol en démarrant ses moteurs pendant plus de 8 minutes. Les 4 moteurs RS-25 ont parfaitement fonctionné, contrairement aux tests effectués en janvier dernier qui se sont arrêtés prématurément.

Désormais, la SLS est considérée comme apte à voler. Mais il reste des différences entre un tir statique au sol et la réalité d’un lancer. Nous aurons donc la réponse finale en novembre prochain, s’il n’y a pas de report.