Cannes blanche électronique

Près de 300 millions de personnes sont malvoyantes à travers le monde et à côté de cela, des chercheurs travaillent dur pour ajouter la vision aux robots. Jagadish Mahendran, de l’Institut d’Intelligence Artificielle, à l’Université de Georgie, trouve cette situation plutôt … ironique.

C’est en 1930 que Guilly d’Herbemont constate que les personnes malvoyantes de son quartier parisien courent un grave danger à chaque fois qu’ils sortent de chez eux. Les véhicules motorisés prennent de plus en plus de place dans la ville. En s’inspirant des bâtons blancs des gendarmes dévoués à la circulation, elle invente la canne blanche afin d’attirer l’attention. C’est plus tard que cette canne blanche servira également à balayer son environnement pour détecter les obstacles. Une canne blanche, malgré ce que pensent les voyants, n’est pas réservée aux personne en cécité totale. Elle permet avant tout d’indiquer l’handicape et donc qu’il faut en prendre compte dans son propre déplacement. D’ailleurs, cette signalisation visuelle est également un frein pour son adoption pour certaines personnes malvoyantes qui n’ont pas forcément envie d’afficher leur handicape.

Il existe déjà des assistants utilisant la technologie pour aider les personnes malvoyantes à se déplacer dans la rue. Elles permettent à leurs porteurs de ne pas être obligé d’aller jusqu’au contact pour ressentir les obstacles.

L’Ultracanne est une canne blanche électronique qui repère les obstacles grâce aux ultra-sons. Elle détecte les obstacles qui peuvent surgir aux pieds de son utilisateur ou bien qui pourraient toucher l’utilisateur sur le haut du corps. La canne perçoit sur des distances qui se comptent jusqu’à 4 mètres. La canne prévient son utilisateur en faisant vibrer plus ou moins fort un des deux boutons situés sous le pouce. Un bouton pour les obstacles situé vers le bas et un autre pour les obstacles pouvant gêner le haut du corps.

La canne blanche électronique Sherpa peut être pilotée par la voix. © Handisco

La canne blanche Sherpa utilise plutôt le son à travers une oreillette bluetooth. L’appareil fonctionne comme un assistant vocal de type Alexa ou Google Home. L’utilisateur pilote l’appareil par la voix et reçoit des informations liées à sa situation GPS. L’oreillette peut lui indiquer l’heure d’arrivée du prochain bus, la distance et l’orientation pour rejoindre une adresse, des monuments ou des rues. L’orientation est indiquée en heure. ‘Douze heure’ étant la direction pour aller vers l’avant, ‘3 heures vers la droite’, ‘9 heures vers la gauche’ et ‘6 heures’ indique qu’il faut faire demi-tour. La canne indique également à son utilisateur la couleur du feu des piétons.

La jeune startup GoSense a développé un bouclier virtuel intelligent sous la forme d’un boîtier équipés de capteurs à ultra-sous, à installer sur le manche de n’importe quelle canne blanche du marché. Elle propose à son utilisateur de percevoir son environnement avec un système audio en réalité augmentée. L’environnement est retransmit sous forme d’un son spatialisés dans un casque audio. Chaque obstacle est retranscrit par un cliquetis qui est perçu dans la direction de celui-ci, incluant sa hauteur. La vitesse du cliquetis donne la notion de distance. Cela permet de se faire une image mentale virtuelle de son environnement. La partie intelligente est sous-traitée par un smartphone caché dans la poche. L’application va également donner des informations audios sur le lieu détecté par son GPS, comme les horaires des trams et autres bus.

C’est quoi la différence entre les embouts ?

Effectivement, les cannes blanches possèdent trois type d’embouts principaux, suivant le terrain. Le plus petit est fixe, il glisse sur le sol et est parfait pour être utilisé dans un bâtiment, sur un béton lisse, un plancher ou un carrelage avec peu de relief. A l’extérieur, ces embouts ne pourront servir qu’à se signaler.

Les embouts tournants simples, que certains appellent guimauve à cause de leur forme et consistance, tournent autour de leur axe central et roulent pendant le balayage. C’est l’embout le plus utilisé car il assiste le mouvement de balayage sur des sols rugueux intérieurs comme extérieurs.

Enfin, la rolling ball est un embout tournant un peu plus gros, en forme de boule. Elle servira principalement sur des trottoirs en mauvais état, des chemins en terre ou du sable.

Au fait, cela veut dire quoi les dalles aux sol ?

Tu as raison d’ouvrir ici cette parenthèse. Vous avez dû remarquer les dalles striées que l’on perçois sur certains trottoirs, notamment près des carrefours ou à la sortie des supermarchés ? Ce sont en réalité des parcours podotactiles pour les personnes malvoyantes qui balayent ces dalles. Elles donnent des indications grâce à leur relief. Les dalles striées indiquent le sens de la marche.

Des dalles en caoutchouc ou un simple espace vide de 70 cm de côté vont indiquer un embranchement de parcours podotactiles emmenant dans des directions différentes.

Des dalles recouvertes de plots indiquent une alerte, qui invite à s’arrêter. Cela peut-être avant un passage piéton, en haut d’un escalier ou à un point remarquable, qui peut être un guichet d’information, un arrêt de transport en commun ou une borne d’appel.

Jagadish Mahendran espère que les personnes malvoyantes pourront un jour se passer de canne blanche. © Institut d’Intelligence Artificielle de l’Université de Georgie

Je reviens maintenant sur Jagadish Mahendran, de l’Institut d’Intelligence Artificielle, à l’Université de Georgie, dont nous avons parlé tout au début. Face à l’ironie de développer la vue aux robots alors que 285 millions de personnes sont malvoyantes sur Terre, il décide de mettre ses connaissances et la technologie à leur service.

Jagadish utilise OpenCV, une bibliothèque graphique libre développée par Intel, capable de traiter les images en temps réel. Ces images sont filmées par deux caméras avec détection de profondeur OAK-D, semblable aux capteurs Kinect de la Xbox. Celles-cis sont logée discrètement sous un vêtement au niveau de la poitrine et dans un sac banane. Un ordinateur et sa batterie d’une durée de travail de 8h sont placés dans un sac à dos équipé d’un récepteur GPS. Il récupère les données des caméras et traite leurs images en direct par une intelligence artificielle qui renvoie le résultat de son analyse, via une voix synthétique, dans une oreillette bluetooth.

Le système détecte l’ensemble des obstacles, lit les panneaux et détecte les changements de dénivellation, comme un trottoir. A un passage piéton, l’appareil détecte le couloir des piétons et guide son utilisateur dans sa direction. La petite voix va donc donner continuellement des informations sur ce qu’elle perçoit. Elle vous dira d’éviter un obstacle par la droite ou la gauche ou de baisser la tête pour éviter un feuillage. Ce sont des messages très courts. Sur notre exemple de feuillages au niveau de la tête, la voix va juste signaler « top front » ce qui signifie qu’un obstacle est devant en haut. Il faudra donc baisser la tête.

Dans la rue, l’intelligence artificielle pourra, suite à une demande vocale de votre part, vous décrire ce qu’elle voit. La reconnaissance des formes va entrer en action et vous décrire les obstacles, les feux de signalisation, les parcours podotactiles, les personnes, animaux ou véhicules sur votre chemin. Chaque élément est indiqué avec sa direction en heures.

Si vous lui demandez votre localisation GPS, il vous indiquera votre adresse géographique et pourra vous guider à un lieu précis.

Ce système est encore en cours de développement et est testé dans la banlieue de Los Angeles en Californie. Le but est ici de se passer d’un chien d’aveugle et même d’une canne blanche. Il se veut discret afin qu’à l’avenir ses utilisateurs n’aient plus besoin d’être particulièrement visibles pour se déplacer en toute sécurité.

Ces recherches ne déboucheront probablement pas d’un produit avant quelques années encore. La canne blanche a encore un peu de répits avant de partir à la retraite.

Space Perspective

Avez-vous déjà rêvé de monter assez haut pour voir la courbure de notre planète ? Space Perspective vous propose de monter à bord ! © Space Perspective

Peut-être rêvez-vous de monter assez haut afin de voir la courbure de la Terre ? Le tourisme spatial qui devrait émerger dans les prochains mois avec la petite navette SpaceShipTwo de Virgin Galactic, la capsule NewShepard de Blue Origin ou les vols dans la Station Spatiale Internationale avec Space Adventure qui seront proposés à des tarifs très élevés. 250 000 € pour un saut de puce et plusieurs millions pour un séjour en orbite.

Space Perspective, une entreprise américaine, propose une nouvelle voie pour un tarif un peu moins élevé. Pour la moitié de la valeur d’une place dans SpaceShipTwo ou New Shepard, soit environ 120 000 €, vous pourrez vous envoler dans une nacelle pressurisée attachée à un ballon stratosphérique jusqu’à une altitude de 30 km, assez pour voir distinctement la courbure de la Terre et avoir une vue proche d’un passager d’une mission spatiale.

La nacelle, appelée Neptune, peut embarquer 8 personnes, elle contient un bar et des toilettes et offre une vue panoramique sur notre planète. Après le décollage depuis la Floride, le ballon mettra deux heures pour atteindre les 30 km d’altitude. Vous resterez ensuite pendant 2 heures à admirer notre planète et sa fragilité, dans les hautes couches de l’atmosphère en dérivant en direction de l’océan atlantique. Puis vous redescendrez pendant 2 heures supplémentaires jusqu’à l’océan où un bateau vous récupérera.

Space Perspective prévoit que, parmi sa clientèle, certains voudront en profiter pour y célébrer des évènements de groupes comme des mariages ou des concerts. Il est également possible que Neptune soit utilisé de temps en temps pour des études scientifiques sur l’atmosphère, le climat ou la météorologie.

Pas de soucis pour vos réseaux, vous pourrez accéder à Internet à tout moment et donc aux réseaux sociaux pour vous pavaner avec la Terre en fond.

Le tarif est moitié moindre que Virgin Galactic ou Blue Origin, mais Neptune ne va pas jusqu’à l’espace situé à 100 km d’altitude, et encore moins en orbite. Vous ne pourrez donc pas goûter aux joies de l’apesanteur, vous aurez toujours les pieds au sol. Je dirais même que si vous ressentez une apesanteur, c’est qu’il y a un problème, c’est que vous tombez, tout simplement ! Par contre, ce voyage de 6 heures en tout est bien plus long que les sauts de puces spatiaux qui se déroulent en moins de 3 heures pour Virgin Galactic et en moins de 15 mn pour Blue Origin, les deux avec seulement quelques minutes réellement dans l’espace.

L’entreprise a fait une dernière levée de fonds de 7 millions de dollars en décembre dernier. Le premier vol devrait avoir lieu dans les prochains mois avec une nacelle vide et non pressurisée afin de valider le concept. Les vols commerciaux pourraient commencer à partir de 2024.

Mars Smiley

Un robot qui vous suit pour que vous achetiez des bonbons, cela vous tente ? © ShopRite

Peut-être évitez-vous de regarder le mini-rayon bonbons et chocolats que l’on trouve à l’entrée des caisses de supermarchés pour ne pas être tentés de prendre une barre chocolatée. La société Mars, qui produit de nombreuses confiseries comme les barres Mars ou les M&Ms a bien compris que vous aviez appris à ne pas vous faire avoir par la tentation.

C’est pourquoi elle teste un robot pour vous appâter à l’intérieur même des magasins. Le robot Smiley est dérivé des robots du constructeur Relay de Savioke, qui s’occupe de petites livraisons dans les hôtels ou des entreprises.

Je sens que ce robot Smiley va vite devenir énervant dans les magasins car celui-ci suit les clients et les invite à se servir d’un paquet de confiserie dans l’étalage qu’il transporte.

Vendre des bonbons n’est pas sa fonction principale. En réalité, il est surtout là pour étudier les déplacements et habitudes des clients dans le magasin. Ils proposent ainsi aux propriétaires un moyen d’améliorer leur magasin pour coller au mieux aux habitudes de ses clients.

Le robot Smiley est pour le moment en période de test dans un magasin alimentaire ShopRite à New-York.

Pas sûr que ces étalages mobiles donnent une bonne image du robot, surtout si on imagine un magasin où plusieurs robots de ce type seraient déployés. C’est légèrement anxiogène, même pour moi.

Vallée de l’étrange

Avez-vous déjà ressenti un malaise en voyant un robot recouvert d’une peau synthétique ? Quel sentiment ce robot de télé-présence, le Telenoid, vous procure t-il ? Une peur ? Un dégoût ? Un malaise ? Hé bien, c’est parfaitement normal ! Vous êtes entré dans l’Uncanny Valley, ou vallée de l’étrange !

La vallée de l’étrange est une théorie qui met en évidence un malaise que l’on perçoit naturellement face à ce qui ressemble à un être vivant, tout en ne l’étant pas.

Pour bien comprendre, nous allons tracer un graphique. En abscisse, nous traçons une droite représentant le degré de ressemblance d’une apparence humaine, ou du moins animale. Tout à gauche, nous avons le grille-pain ou la représentation d’un caillou. C’est à dire, quelque chose de totalement inanimé, en dehors de la tartine éjectée bien sûr. Plus nous allons sur la droite et plus cet objet ou cette représentation ressemble à un humain, ou un animal.

Pour l’ordonnée, nous allons schématiser notre degré de familiarité. Plus nous allons vers en haut, plus nous ressentons une familiarité, une empathie positive pour l’objet que nous avons en face de nous. Au contraire, plus nous allons vers le bas, plus nous ressentons un dégoût, une peur, voire une angoisse face à cet objet.

Les robots humanoïdes recouverts d’une peau synthétique sont eu fond de la Vallée de l’Etrange. © Intelligent Robotics Laboratory

D’une manière générale, plus un objet prend un aspect humanisé, plus nous nous projetons dans celui-ci. Nous développons une empathie. Nous lui prêtons une humanité.

Plus un robot ressemble à un humain, plus nous imaginons que celui-ci possède une intelligence artificielle évoluée. Ce qui est totalement faux en vérité. Un assistant vocal comme Alexa, Siri ou Google Home sont bien souvent plus aptes à tenir une conversation avec vous qu’un robot à apparence humaine. C’est dire !!

C’est dans cet esprit que de nombreux ingénieurs veulent développer des robots compagnons reprenant les traits d’un être vivant. Plus humanisé il sera, plus nous pourrions prendre confiance en lui, car nous nous plaçons en empathie avec lui.

Graphique : Vallée de l’Etrange.

Bref, traçons une ligne représentant cette évolution de l’empathie telle que l’on pourrait l’imaginer.

Sauf que….

En réalité, la ligne ressemblerait un peu plus à ça !

Voyez ce grand creux dans la ligne, ressemblant à une vallée entre deux montagnes ?

La vallée de l’étrange !

Exactement, c’est l’Uncanny Valley ou Vallée de l’étrange en français.

D’où vient cette cassure ?

Pendant des siècles, même des millénaires d’évolution de nos machines, elles ont suivies le début de la courbe. Même arrivés au début de l’ère du robot, les premiers bras industriels étaient très loin de ressembler à des humains. Leurs gestes, très mécaniques, étaient loin de nous faire peur. Sauf si l’on avait peur de se prendre un coups, bien sûr.

Mais ces dernières années, des robots ressemblant à des humains, des insectes, des chiens ou des chats, ont commencés à se rapprocher du haut de la première colline. De plus, ces robots ont commencés à avoir des mouvements beaucoup plus fluides. Et un premier début de malaise est apparu chez les personnes les observants.

Pourquoi ?

Tout simplement, ces robots ont une apparence que notre cerveau associe de façon totalement inconsciente à un être vivant. Or, toujours ce sacré cerveau, s’aperçoit qu’il y a en réalité un décalage avec ce qu’il attend d’un être vivant. Cela ressemble mais pas complètement. Ses mouvements sont fluides, mais pas complètement. Des détails coupent l’illusion. Et notre cerveau se met en alerte !

Toujours inconsciemment, notre cerveau se met à interpréter ce qu’il voit. L’être devant lui est-il malade ? Devons-nous fuir pour ne pas être contaminé ? Notre cerveau interprète exactement comme s’il était face à un cadavre. C’est pourquoi, inconsciemment, même si l’on est ouvert à la technologie, nous avons naturellement peur d’un robot qui sera recouvert d’une peau synthétique comme cet androïde, ou qui aura des mouvements d’une fluidité proche d’un animal comme le Bigdog.

Pour mieux comprendre, je vais placer quelques exemples sur notre courbe. Ici, au tout début, nous pouvons mettre le bras robot industriel. Ses gestes et son apparence n’ont absolument aucun lien avec un être vivant. Ses mouvements sont rythmés avec la tâche qu’il a à accomplir, purement mécanique.

En allant vers la droite, nous allons placer des robots à apparence de plus en plus humanoïde, ou du moins animale. C’est ainsi que l’on peut placer ici, les peluches robotisés. Elles possèdent très peu de mouvements. Elles sont mignonnes dans leur apparence et leurs jappements, mais elles ne font l’illusion que si l’on a envie d’entrer dans leur jeu. Très vite, leur partie purement mécanique se devine sous la peluche.

Un peu plus loin encore, nous trouvons les robots humanoïdes de type Nao, Pepper ou Robi. Leurs gestes commencent à gagner en fluidité. Leur apparence se rapproche encore un peu plus de l’humain. En plus, ils parlent, voire tentent de suivre une conversation. Mais leur coque plastique et leurs grands yeux les font classer par notre cerveau comme des machines. Impressionnantes, mais encore des machines. Ces robots vont pourtant exprimer ce qui pourrait ressembler à des émotions, comme la peur, le rire ou la compassion. Mais ces émotions, bien évidemment scriptées, ne sont retransmises que par des jeux de lumière ou des gestes comportementaux reproduit sans la moindre créativité. La plupart des robots, surtout au niveau grand public, ne dépassent pas ce niveau de réalisme pour le moment.

Pour l’anecdote, Aldebaran Robotics, le constructeur original de Nao, a longtemps hésité à afficher ce qui peut ressembler à des yeux. Justement pour ne pas basculer dans la vallée de l’étrange.En réalité, les caméras sont situées dans ce qui pourrait ressembler à la bouche et au niveau du front. Au niveau des yeux, ce sont des récepteurs infrarouges.

Quand aux robots Spot et Atlas de Boston Dynamics, ils entrent dans la vallée de l’étrange. S’ils ne bougent pas, ils ressemblent en tout point à des machines, mais ce sont leurs mouvements fluides et leurs comportements face à une perte d’équilibre ou une chute qui leur donne un côté animal, voire qui leur donne un aspect dangereux. Les films et séries de science-fiction à la Terminator ou Black Mirror nous confortent dans une une impression de danger. Par contre, à l’inverse, nous développons de l’empathie pour eux grâce à leur forme humanoïde ou proche du chien. Lorsque les ingénieurs testent les réflexes de leurs robots, en les poussant pour les faire tomber ou faire tomber ce qu’ils portent, les gens y voient inconsciemment de la violence. Ils projettent une personnalité dans ces machines, qui finalement ne sont pas plus évoluées qu’un grille pain au niveau des sentiments. Cela reste des machines, à apparence vivante, mais de simples machines.

Si, par hasard, vous voulez en savoir plus sur les robots de Boston Dynamics, vous pouvez suivre ma vidéo qui leur est consacrée dans cette fiche !

Depuis quelques années, fleurissent les robots recouverts de peau synthétique, recherchant au maximum à nous ressembler. Sur une photo, nous pourrions nous faire avoir, mais dès que le robot est animé, notre cerveau capte des détails qui le choque. Les mouvements qui ne sont pas naturels, qui sont répétés et pas toujours très fluides. Des mains souvent très grosses, et sans vie, par rapport au reste du corps. Des mouvements de cheveux saccadés. Un visage trop parfait, les pores de la peau, un léger duvet sur la peau du visage, un regard perdu, un sourire forcé, une peau plissée ou au contraire trop étirée, une position ou démarche qui manque de naturel. Tous ces détails donnent un aspect malade, voire cadavérique. Ils créent une dissonance de l’empathie.

Le robot HRP-4C dansant parmi deux humains. © AIST

Notre cerveau nous alerte inconsciemment : partez, fuyez !

D’où une peur, ou du moins un malaise qui s’installe en voyant ces robots bouger. Nous sommes bien au creux de la vallée de l’étrange.

Comment en sortir alors ?

Le seul moyen est :

  • soit de revenir à un aspect plus plastique, avec de grands yeux mignons façon manga, ce qui est le choix de la plupart des constructeurs de robots de service,
  • soit pousser la ressemblance au maximum jusqu’à ce que notre cerveau ne voit plus la différence du tout. Même si consciemment, nous sommes au courant que nous avons un robot devant nous, si notre inconscient ne fait plus la différence, nous seront sortis de la vallée de l’étrange.

Aujourd’hui, aucun robot n’a réussi à sortir de la vallée de l’étrange. Nous en sommes même encore très loin. Il faudra probablement encore quelques dizaines d’années pour avoir des robots mimant parfaitement notre humanité sur le plan physique.

Cela se limite aux robots ?

Dans les faits, ce malaise dépasse largement le cadre des robots. Dès 1906, le psychiatre berlinois Ernst Jentsch parle de la notion d’ « inquiétante étrangeté ». Il décrit que les masques ou les maquillages de clowns donnent un air inquiétant à ceux qui les portent, puisque notre cerveau n’arrive pas à interpréter correctement les émotions de leur porteur. D’ailleurs, certaines personnes sont touchées par ce phénomène à de très haut niveaux, c’est la coulrophobie, c’est à dire la phobie des clowns. D’autres ont la phobie des poupées, particulièrement des poupées de porcelaine, la pédiophobie.

Freud va continuer, plus tard, à théoriser cela en décrivant de légers décalages entre une reproduction du vivant et la réalité, laissant apparaître des détails imperceptibles, créant le malaise.

Mais c’est le roboticien japonais Masahiro Mori, en 1970, qui publie un article scientifique intitulé Uncanny Valley qui décrit parfaitement la vallée de l’étrange, telle qu’on la connaît aujourd’hui.

Depuis, nous avons découvert qu’en plus des masques, des poupées ou des robots, nous avions le même problème avec les images de synthèse dans les films et les jeux vidéos. Tant que le dessin reste cartoon, nous ne percevons aucun malaise. Mais si l’on tente de se rapprocher de la réalité, nous pouvons de nouveau entrer dans la vallée de l’étrange. Pensez notamment à la comédie musicale Cats ou le film d’aventure « Le Retour de la Momie », où Dwayne Johnson incarne le Roi Scorpion. Les images des effets spéciaux étaient sensiblement ratés et la tête de The Rock manquait cruellement de naturel. Nous tombons de nouveau dans les mêmes travers que la vallée de l’étrange. Le même problème apparaît dans le premier Toy Story. Rien à dire sur les jouets, mais par contre les personnages humains d’Andy où du terrible voisin Sid, voulant être un peu plus réaliste, peuvent provoquer un dégoût, un malaise.

C’est pareil pour tout le monde ?

Pas du tout. Chaque personne perçoit cette vallée de l’étrange différemment. Elle peut-être très prononcée ou au contraire inexistante. Elle peut être plus à gauche ou plus à droite. Un joueur de jeux vidéo des années 90 est habitué à voir des personnages plus ou moins réalistes en 3D et ne s’émeut que très peu sur le niveau de réussite d’un personnage en images de synthèse dans un film. Cela va peut le choquer sur la qualité graphique mais pas forcément sur un éventuel malaise.

En Europe, nous avons une culture judéo-chrétienne. Chez les croyants, seuls les humains ont une âme. Même les animaux n’en ont pas, alors un objet… Même chez les athées, cette notion est restée ancrée dans la culture. Nous sommes donc bien plus sujet à la vallée de l’étrange qu’en Asie. Là-bas, la culture est bien plus proche de l’animisme, qui projette des esprits sur chaque animaux et même chaque objets. Donc une machine peut tout à fait intégrer quelque chose qui se rapproche de la notion de l’âme. Une machine douée de mouvements ou d’une apparence humanoïde les choque bien moins que dans la culture européenne.

A l’avenir, si la vue d’un robot vous fait peur, vous saurez pourquoi !

Polar Pod

Le navire Polar Pod dans sa position verticale. © SHIP ST

Le 30 juin 2012, le navire RV Flip, de 108 mètres de long et construit en 1962, subit d’importants dommages qui laissent remplir ses cales situées au centre du navire en eau salée. Dans cette horreur, le navire qui a tourné ses images n’a même pas pris la peine d’aller chercher les derniers passagers à bord. Un véritable drame pour la marine.

Ou pas ! (caméra approchée)

L’eau de mer est effectivement entrée dans le navire. Mais c’était totalement prévu ! RV Flip est un navire vertical. En gros, il est remorqué par un autre navire jusqu’à destination. Ensuite, des ballast semblables aux sous-marins s’ouvrent pour se remplir en eau. L’avant étant lesté par du béton, celui-ci finit par prendre la direction des fonds marins. Mais le ballast central contient juste ce qu’il faut pour garantir l’équilibre afin que la partie arrière se retrouve toujours au-dessus du niveau de la mer, qu’importe la hauteur des vagues.

A l’origine, le RV Flip a été construit par les Etats-Unis pour écouter les fonds marins pendant la guerre froide. Avec un tirant d’eau de 80 mètres de profondeur, l’écoute n’était plus parasitée par les bruits de la surface. A la fin de la guerre froide, le navire a été réaffecté à l’Institut Océanographique californien pour de la recherche scientifique.

Le célèbre explorateur français Jean-Louis Étienne, qui a notamment été le premier à atteindre le pôle Nord en solitaire en 1986, a pour projet de construire son propre navire d’étude océanographique sur le même principe que le RV Flip, sous le nom Polar Pod.

Légèrement plus petit, avec ses 90 mètres, le Polar Pod est surtout plus simple dans sa construction. Il consiste en un ensemble de tubes d’aciers, avec des ballast aux centre et un lest en béton de 150 tonnes à l’avant. A l’arrière, se trouve une nacelle contenant 3 étages. On y trouve des laboratoires, une salle informatique et les habitations.

Après avoir testé une maquette dans un bassin nantais pour tester sa flottabilité et les contraintes en cas de forte houle il y a quelques années, le projet Polar Pod est en train de lancer un appel d’offre pour sa construction qui devrait démarrer l’année prochaine, pour une durée d’environ 7 mois. Les premiers campagnes d’essais sont prévues pour 2023.

Entre 2024 et 2026, le Polar Pod partira pour une mission de 3 ans avec 7 passagers, 3 marins et 4 scientifiques, à bords se relayant tous les 3 mois. Il devrait faire deux tours du monde, emporté par les courants marins de l’océan austral entourant l’antarctique, dans ce que l’on appelle les 40e Rugissants. Avançant très lentement, il pourra se faire aider par deux voiles qui pourront être déployées sur le flanc de la nacelle.

Quelle sera sa mission ?

Plusieurs missions sont prévues lors de ces 3 ans. Il va étudier les conséquences de nos rejets de CO2 sur l’océan Austral et sa capacité à l’absorber. Il aura une mission de recensement de la faune marine, du plancton microscopique aux grands mammifères marins. Le Polar Pod va également aider à la calibration des mesures satellites en validant les données reçues afin qu’elles collent au mieux à la réalité. Enfin, le navire mesurera la pollution provenant des micro-plastiques ainsi que la pollution sonore provenant de notre activité.

Hot Fire de la SLS réussie

Le Green Run du futur lanceur géant SLS s’est déroulé sans accroc. © NASA

Tout le nouveau programme lunaire habité de la NASA repose sur la fusée Space Launch System, la SLS. Cette fusée géante reprend une bonne partie des caractéristiques de la fusée emblématique Saturn V qui a transporté les 6 missions lunaires habitées Apollo entre 1969 et 1972. Afin de réduire les coûts de développement, elle repose sur les technologies éprouvées par les anciennes navettes spatiales Shuttle qui ont volées entre 1981 et 2011.

Le nouveau programme habité lunaire, Artemis, devrait démarrer officiellement en novembre prochain (fiche vers HS) avec le décollage de la mission Artemis 1. Ce sera le vol inaugural de cette nouvelle fusée géante, dans sa version block 1, de 98 mètres de haut. Ce premier vol sera une répétition générale, à vide, sans astronautes, de la mission suivante Artemis 2. Elle transportera le nouveau vaisseau Orion, dont le module de service est d’origine européenne, jusqu’à une orbite de transfert. Ensuite, Orion sera propulsé en direction de la Lune. Le vaisseau en fera deux fois le tour, avec deux phases à basse altitude, 100 km du sol lunaire, et une, au contraire, très éloignée à 60 000 km.

Pourquoi si éloigné ?

Artemis 1 est une répétition générale d’Artemis 2 qui aura lieu en juillet 2023. Celle-ci sera habitée par 3 astronautes États-uniens ainsi qu’un astronaute canadien. Elle fera en gros la même chose que la mission Apollo 8 en 1968. Pour se démarquer d’Apollo 8, Artemis 2 se devait de faire une première. Et ce sera simplement la mission habitée la plus éloignée de la Terre de l’histoire.

Si aujourd’hui on parle de la fusée SLS qui emportera les missions Artemis, c’est parce qu’elle a enfin complété la validation de ses tests du Green Run. Le18 mars dernier, la fusée qui servira pour Artemis 1 a été mise en condition de vol en démarrant ses moteurs pendant plus de 8 minutes. Les 4 moteurs RS-25 ont parfaitement fonctionné, contrairement aux tests effectués en janvier dernier qui se sont arrêtés prématurément.

Désormais, la SLS est considérée comme apte à voler. Mais il reste des différences entre un tir statique au sol et la réalité d’un lancer. Nous aurons donc la réponse finale en novembre prochain, s’il n’y a pas de report.

Evolution du TGV

Après s’être appelé Avelia Horizon, puis TGV du futur ou TGV 20 20, la France va connaître sa cinquième génération de Train à Grande Vitesse, sous le nom de TGV M.

C’est en 2015 que la SNCF lance un appel d’offre pour renouveler son parc ferroviaire. Elle désire des rames plus modernes, pouvant transporter plus de monde, tout en étant plus écologique et moins coûteux à l’achat et à la maintenance.

Alstom, constructeur historique des TGV depuis les premiers prototypes de 1971, a repris le flambeau. Mais pas question de se reposer sur ses lauriers, en septembre 2016, le groupe a repris ses planches à dessin et a commencé son nouveau modèle à partir d’une feuille blanche. Ce sont ainsi 2 000 personnes qui se sont affairées pour développer le concept du TGV M.

Que veut dire le M ?

C’est le M de Modulaire. Tout d’abord les rames comportent toujours leurs deux motrices, l’une à l’avant, l’autre à l’arrière, avec la possibilité d’inverser le sens de la marche. Mais désormais, chaque rame peut modifier son nombre de voitures, entre 5 et 9, suivant les besoin de la ligne.

Ensuite, chaque voiture est également modulaire. En moins d’une journée, une voiture peut entièrement être réaménagée, pour accueillir plus de sièges, plus de bagages, ou même transformer une voiture de seconde classe en première classe ou inversement.

Vue d’artiste du nouveau TGV M. © Alstom

Pour combien de passagers ?

Les anciennes rames de TGV Duplex, sur deux niveaux, pouvaient transporter jusqu’à 509 passagers. Le TGV M va monter jusqu’à 740 places, soit une augmentation de 45 %. Mais cela reste moins que les 900 passagers de l’Eurostar, utilisant des trains allemands Velaro e320.

Le TGV est français ?

Le nouveau TGV M est 100 % français. Il est fabriqué actuellement à Belfort et à La Rochelle.

Tata Ginette pourra monter dedans ?

Le TGV M a été pensé pour être plus accessible aux personnes à mobilité réduite. Tata Ginette et son fauteuil roulant pourront se déplacer dans ce TGV au rez de chaussée ou à l’étage, en utilisant un petit ascenseur. Durant la conception du TGV M, des associations de voyageurs et de personnes à mobilité réduites ont testées des maquettes 3D à l’aide de la réalité virtuelle.

Parmi les conforts améliorés, vous ne retrouverez plus la climatisation situé sous votre coude, mais au-dessus de vous. De plus, les vitres froides, c’est fini, puisqu’une meilleur isolation thermique a été apportée. D’ailleurs, les fenêtres seront légèrement plus spacieuses, de 10 %, pour vous offrir une meilleur vue et un meilleur éclairage. Et lorsque le soleil est couché, vous aurez droit à un éclairage modulable.

Très important ! Je pourrais regarder Netflix dans ce train ?

Oui, ce TGV M sera connecté, avec un vrai réseau Internet à bord !

Il va être plus cher alors ?

En réalité, non. C’était une demande de l’appel d’offre originale. Une rame de TGV M coûterait 20 % de moins qu’une rame de TGV classique. Et ce, pour plusieurs raisons. Tout d’abord, les pièces ont été standardisées. Elles sont désormais interchangeables avec les autres trains du groupes, comme le Transilien qui dessert la banlieue parisienne. Ces pièces standard permettent de travailler sur de plus grand volumes, et donc développer une économie d’échelle.

Ensuite, les coûts de la maintenance vont également baisser de 30 % puisque chaque train comporte 30 % moins de pièces que dans les précédents TGV, donc 30 % moins de pièces pouvant tomber en panne. De plus, comme dans les avions, des capteurs d’usure seront disséminés sur le train. Ils enverront en temps réel l’état des pièces au poste de pilotage. Cela permettra de faire de la télé-réparation quand c’est possible mais surtout de déterminer à l’avance l’état d’usure des pièces afin de les changer avant leur panne. Jusque là, les pièces étaient systématiquement changées régulièrement, tous les 8 ans, quelque soit leur niveau d’usure. Maintenant, chaque pièce ne sera changée que si elle était réellement en fin de vie.

Le TGV M va également gagner en consommation. L’aérodynamisme a été revu et son nez entrera plus facilement dans l’air. Alstom pense que celui-ci permettrait de gagner 20 % sur la consommation d’un TGV classique. Et comme les voitures électriques, lorsque le train freine, le TGV renverra l’énergie gagnée vers le caténaire, c’est à dire le câble électrique qui lui apporte l’énergie depuis l’extérieur le reste du temps.

La modularité est le point central du TGV du futur. © Alstom

Il ne roule pas sur batterie ?

Jusque là, non ! Mais finalement, ce nouveau TGV M comportera deux kits de batteries, permettant à la rame de continuer à avancer sur 40 km en cas de panne électrique dans les caténaires. En réalité, cela a surtout été pensé pour permettre à un TGV bloqué dans un tunnel, pendant une panne du réseau électrique, de pouvoir, au moins, en sortir.

Enfin, un dernier point permet de réduire les coûts de ce TGV M. Le système de pilotage intègre un système d’écoconduite, à la manière des boutons « Eco » des voitures modernes. Une fois enclenché, votre véhicule a moins de pèche mais vous consommez moins.

Et l’environnement ?

Le TGV M a été pensé pour être plus écologique, puisque 97 % d’une rame est recyclable. Son empreinte carbone est de 32 % de moins que les TGV actuels.

Et c’est pour quand ?

En 2018, ce sont 100 première rames qui ont été commandées pour un total de 2,7 milliards d’Euros. Les premières rames pourraient faire leurs premiers tests vers l’été de cette année. Et leur mise en service devrait avoir lieu vers juin 2024, pour accueillir les Jeux de Paris. Alstom devra livrer l’intégralité des 100 premières rames jusqu’en 2031. Et la SNCF a déjà posé une option sur 100 rames supplémentaires qui pourrait devenir une commande ferme à la fin de la décennie.

Et à quand un TGV plus rapide ?

Ce n’est pour le moment pas du tout à l’ordre du jour. Ces nouveaux TGV M seront là pour longtemps maintenant. Leur durée de vie est estimée à 30 / 35 ans. Ils seront probablement encore en service en 2070.

Attention, ces TGV ne seront pas des escargots non plus, ils rouleront à 320 Km/h comme les TGV actuels. Ils seraient capables d’atteindre 360 km/h en vitesse de croisière, mais ce serait au détriment de lourds travaux d’aménagements des voies et une usure des pièces plus rapide. Tout ça pour gagner 5 à 8 mn sur les plus longues lignes. La SNCF n’en voit pas l’intérêt.

Mais c’est vrai, qu’à côté, les Maglev, trains à substantation magnétique commencent à se multiplier un peu partout. En Chine, un Maglev vient d’être enregistré à la vitesse de 620 km/h lors de tests. Même si sa vitesse de croisière est moindre, elle atteint quand même 431 km/h.

Et que dire de l’hyperloop, ces trains à substantation magnétique à l’intérieur de tubes à vide. Ici, on parle de vitesse théorique de 1 150 km/h ! D’ailleurs, pour en savoir plus, je vous invite à revoir ma chronique numéro 3, disponible ici dans mes fiches !

Station Spatiale Voyager

Le Voyager est un concept de station spatiale privée comportant un système de gravité artificielle. © Gateway Foundation

La Station Spatiale Internationale, ou ISS commence à avoir quelques années maintenant. Cette station peut abriter 6 astronautes et fait la taille d’un stade de football si l’on compte également les panneaux solaires. Elle avait été d’abord conçue pour être exploitée entre 1998, année du début de son assemblage, et 2024. Les modules commencent à être obsolètes et leur maintenance sont d’un coût élevé. Pour le moment, l’ISS a gagné un sursis jusqu’à 2028.

C’est pourquoi, d’autres projets de stations spatiales s’apprêtent à prendre le relai, même si rien n’a encore été décidé sur le sort de l’ISS après 2028. Les américains et les européens vont déployer une nouvelle station spatiale, mais en orbite lunaire cette fois-ci, servant d’escale avant de déposer des astronautes sur le sol lunaire. La LOPG, ou Gateway devrait commencer à être assemblée à partir de 2024. Plus proche de nous, la Chine devrait commencer l’assemblage de Tiangong 3, leur propre station spatiale nationale dans les prochaines semaines.

Et tout ça, c’est sans compter les multiples projets de stations spatiales privées. Jusque là, elles étaient vouées à l’échec, car le marché était bien trop restreint. Mais aujourd’hui, ce sont des sociétés privées qui emportent les astronautes à bord de l’ISS. Ce sont des sociétés privées qui vont fabriquer les éléments de la station lunaire Gateway. Un module, gonflable, de l’ISS est déjà un module privée. Si l’ISS reste en place quelques années de plus, elle pourrait être exploitée à titre privée, plusieurs projets sont à l’étude.

Quand on dit privé, on ne parle pas uniquement d’allemands en shorts. Tout simplement, chaque laboratoire scientifique, chaque pays n’aura pas besoin d’avoir un programme spatial complet pour pouvoir accéder à l’espace. Il suffira de s’offrir un vol à bord d’une fusée SpaceX et de quelques jours ou semaines à bord d’une de ces stations privées pour mener à bien leurs études scientifiques.

Et parmi ces projets, un concept très ambitieux a été présenté, Voyager. Pour le moment, je ne lui accorde que très peu de crédits. Le projet semble trop ambitieux, trop proche du design d’un film de science fiction pour être pris au sérieux. Mais, après tout, comme lorsque SpaceX a annonce le projet Big Fucking Rocket, devenu désormais Starship.

Voyager n’est pas né d’une entreprise, mais d’une fondation. Bon… Déjà… Cela veut dire, aucun moyens. Voyager reprend les projets de stations spatiales, en forme de roue, des années 50. En tournant sur elle-même, elle permet de créer une pesanteur artificielle de 30 % et évite ainsi la décalcification des os et la perte de masse musculaire. Tout comme dans 2001, l’Odyssée de l’Espace de Stanley Kubrick qui propose des bâtiments spatiaux de ce type, la partie centrale n’est pas sous pesanteur artificielle, et vous pouvez donc continuer à y voler.

La roue ferait 200 mètres de diamètre. Elle offrirai 51 000 m³ de surface habitable, pouvant héberger jusqu’à 440 passagers dans 24 modules d’habitation de 12 par 20 mètres. Ces modules seraient ensuite divisés en chambres ou suites suivant les budgets. Des zones sportives, de restauration ou de loisirs seraient également incluses.

Les liaisons seraient faites au niveau du noyau central qui accueillerait une espèce de spatioport. Mais pour plus de sécurité,chaque module aurait accès à une navette de secours de type Dream Chaser pour revenir sur Terre.

D’après la fondation Gateway, porteuse du projet, il suffirait de 40 vols de Starship de SpaceX pour la construire, le tout pour un coût de 60 milliards de dollars, soit deux fois moins que l’ISS. La fondation espère pouvoir commencer son assemblage en 2025.

Même si je pense que c’est encore un peu tôt pour qu’un tel projet puisse voir le jour réellement, je pense qu’il a au moins le mérite de nous montrer à quoi pourrait ressembler une station spatiale privée dans 50 ou même plutôt 100 ans.

J’espère me tromper dans mon estimation, et voir cela dès notre décennie. Mais, j’ai beau être un grand rêveur…

Une mangeoire espionne

La mangeoire Bird Buddy, équipée d’une caméra, pour prendre en photo les oiseaux qui s’invitent pour un petit déjeuner. © Bird Buddy

Pour finir, voici l’arrivée sur la plateforme de financement participatif, Kickstarter, de Bird Buddy. C’est une mangeoire à oiseaux pour les ornithologues en herbe.

Si vous êtes intéressés par la nature et particulièrement les oiseaux, et que vous avez du mal à les photographier, tant ils décollent aussi vite qu’ils sont arrivés dans votre jardin. Cette mangeoire vous permettra d’avoir toujours le bon cliché, pris au plus près.

Dès qu’un oiseau se posera sur la mangeoire pour se délecter des graines que vous lui proposez, il déclenchera un appareil photo qui va le photographier. Il va vous envoyer une notification sur votre smartphone et vous pourrez ainsi visionner votre visiteur en temps réel sur votre écran.

Mais cela ne s’arrête pas là, puisqu’il est capable de reconnaître l’espèce de l’oiseau grâce à une intelligence artificielle. Pour cela, il va comparer l’oiseau visuellement mais aussi par son chant, avec une base de données de 1 000 espèces. Et en plus de vous l’afficher, il enverra ces informations, si vous le désirez, à une base de donnée aidant les scientifiques à connaître la migration des oiseaux et ainsi à mieux les protéger.

Et petit bonus, cette caméra offerte sur votre jardin peut être utilisée même quand il n’y a pas d’oiseaux. Si vous êtes loin de chez vous, vous pouvez toujours aller voir si tout va bien depuis votre écran.

Une centrale solaire en orbite

Avec le réchauffement climatique, il est urgent de changer nos pratiques de production de l’énergie. Nous avions bien la piste du nucléaire avec les centrale à fission, mais elles s’est avérée dangereuse notamment avec les cas de Tchernobyl en 1986 et Fukushima en 2011. Il est donc préférable de trouver d’autres voies, plus sécuritaires.

Nous avons déjà parlé des futures centrales nucléaires à fission, qui par définition ne peuvent pas s’emballer et donc exploser. De plus, elles n’émettent que très peu de déchets. Vous pourrez retrouver mes explications dans ma chronique numéro 3, dans la fiche ici !

Une autre solution a été théorisée dès 1920 par le père de l’astronautique, le scientifique russe Constantin Tsiolkovsky. Le principe est simple, mettre des panneaux solaires directement dans l’espace !

Ben ! Pourquoi dans l’espace ?

Sur Terre, les panneaux solaires ne peuvent pas fonctionner à plein régime. Toute l’énergie solaire n’atteint pas les panneaux que l’on place sur nos maisons ou dans les déserts, elle est filtrée par l’atmosphère en grande partie. Notamment, la couleur bleue a du mal à traverser l’atmosphère pour atteindre le sol. De plus, cela ne fonctionne que quelques heures par jours…

Ben oui, des fois il fait nuit !

Il faut nettoyer les panneaux régulièrement pour que la poussière n’empêche pas les rayons d’atteindre les cellules. S’il ne fait pas beau, c’est autant de luminosité perdue. Et la Terre tourne sur elle-même, le soleil n’est pas constamment au-dessus des panneaux solaires. Certes, on trouve désormais des panneaux qui se déplacent pour être toujours en face du soleil.

Mettre des panneaux solaires en orbite, c’est éliminer une bonne partie des inconvénients des panneaux solaires placés sur Terre. Ici, l’atmosphère ne filtre plus le bleue ni quoi que ce soit, les cycles jour/nuit sont moins longs (mais plus fréquents). La même surface de panneaux solaire peut produire entre 6 et 8 fois plus d’énergie que sur Terre.

C’est bien joli, mais comment on envoie l’énergie sur Terre ? Avec une fusée ?

Nous n’utilisons évidemment pas de fusée pour faire l’aller-retour entre la Terre et la centrale solaire en orbite, en chargeant de lourdes batteries. Ce serait complètement idiot.

Tout simplement, la centrale transforme l’énergie solaire en un faisceau de micro-ondes qui est pointé en direction d’une antenne située sur Terre. L’énergie y est récoltée et transformée en électricité, puis envoyée dans le réseau.

Chouette ! On commence quand ?

Et bien c’est fait !! En 2019, les chinois avaient annoncé un projet d’expérimentation en orbite pour 2021 avec une première vraie centrale exploitable en 2035.

Pourquoi ne pas produire de l’énergie depuis l’orbite, loin de toute atmosphère filtrante ? © DR

Mais la Chine vient de se faire coiffer au poteau par les États-Unis ! C’est la petite navette spatiale autonome et réutilisable, la X37-B, de l’armée de l’air américaine, qui a déployé un petit panneau solaire de 30 cm de côté en orbite.

L’expérience fut concluante : le petit panneau a capté l’énergie solaire, l’a transformé en un faisceau de micro-onde qui a été ensuite capté par une antenne au sol pour produire de l’électricité.

Quelle quantité ?

Environ 10 watts, de quoi recharger un smartphone ou allumer une ampoule LED.

Tout ça pour ça ?

Oui, ce n’était qu’une expérimentation. Maintenant que le principe est validé, il devient envisageable de déployer dans quelques années d’immenses centrales solaires en orbite géostationnaire, voire même aux points de Lagrange, afin de ne plus à gérer les cycles jours/nuit.

Pour une future centrale de 5 Gw, pouvant subvenir aux besoins de 5 millions de foyers, soit 15 millions d’habitants environ, il faut construire une centrale de 10 000 tonnes, soit 25 fois l’ISS, la Station Spatiale Internationale. C’est là que l’on peut voir l’utilité de développer des lanceurs très lourds et réutilisables, comme le Starship de SpaceX, capable d’envoyer de très lourdes charges dans l’espace pour un tarif bien plus compétitifs que les tarifs utilisés aujourd’hui. Et pourquoi pas importer de la matière extraite de la Lune. C’est bien plus simple de satelliser une charge depuis la Lune que depuis la Terre. Et une imprimante 3D peut ensuite construire la centrale directement en orbite à partir de la matière première qu’elle reçoit.

Et surtout, il ne faudra pas négliger la taille de l’antenne réceptrice sur Terre. Suivant la taille de centrale émettrice, l’antenne pourrait atteindre plusieurs km de large au sol !

La centrale étant satellisée, on n’est pas obligé de rediriger le faisceau de micro-ondes toujours au même endroit. Il peut être envoyé n’importe où sur Terre, si une autre antenne est dans son champs de vision. On peut très bien imaginer une constellation de dizaines de centrales solaires, en orbite basse, qui jonglent avec les antennes au fur et à mesure du passage au-dessus d’elles. Et il est possible d’envoyer plus de faisceaux sur des antennes qui ont besoin de plus d’énergie que d’autres à certains moments. Cela peut être traité quasiment en temps réel et de façon automatisé suivant les besoins.

La notion d’opérateur d’énergie spatiale est tout à fait envisageable dans une vingtaine d’année, sur le même modèle que Starlink ou OneWeb pour Internet aujourd’hui. Si vous voulez en savoir plus sur Starlink, suivez la fiche sur ma chronique numéro 18 !

Le Trektor de Sitia

Logo Sitia, un petit air qui peut rappeler des choses aux gamers. © Sitia

Vous voyez ce logo ? Je suis certain que certains ont cru reconnaître quelque chose ! Non, ce n’est pas le logo d’Aperture Science, le centre de recherche fictif de la série de jeux vidéo Portal.

C’est le logo de Sitia, un centre de recherche basé à Nantes et bien réel. Sitia existe depuis 1986, donc bien avant l’arrivée de la saga Portal. Cette société conçoit et réalise des machines dans le domaine de l’automation, de la simulation, de la mécanique et de l’informatique industrielle.

Et parmi ses spécialités, Sitia développe des robots agricoles. Son robot le plus impressionnant est le Trektor, un véritable tracteur complètement autonome, puisqu’il n’a même plus de cabine pour son pilote.

Les tracteurs actuellement sur le marché étaient déjà pourvus de systèmes de conduite autonome. A l’aide de balises pour affiner le positionnement par satellite, ce que l’on guidage par GPS RTK, ces tracteurs de précision n’avaient plus grand-chose à demander à leurs pilotes.

Le Trektor, tracteur autonome de Sitia. © Sitia

Désormais, avec le Traktor, son pilote n’a plus besoin d’être dans la cabine, qui a disparu donc. L’exploitant utilise une application sur sa tablette pour paramétrer les taches du robot et la surface de travail. Ensuite le Traktor se débrouille tout seul.

Sa largeur et sa hauteur peuvent être variées dans ses paramètres. Il peut donc enjamber des cultures et s’adapter à la largeur et la hauteur d’un passage. Il peut travailler sur des cultures très différentes, comme des vignes étroites ou larges, le maraîchage et la culture légumière de plein champs et l’arboriculture.

Sitia a tenu à ce que son robot soit compatible avec l’ensemble des accessoires de tracteurs du marché. Il possède donc un système de fixation arrière à trois points tout à fait conventionnelle.

Le Traktor utilise une motorisation hybride diesel et électrique pouvant délivrer la puissance d’un tracteur conventionnel de 50 chevaux. Sa vitesse de travail est de 10 km/h. Son autonomie au travail est de 8 heures et sa batterie se recharge en 5 heures.

Pour plus d’informations sur la robotique agricole, vous pouvez découvrir un système de drones qui ramassent les fruits dans un verger, dans la chronique numéro 17, dont voici la fiche.

La Legend Hybrid EX

La Legend Hybrid EX. © Honda

Les voitures autonomes, on commence à en parler depuis un moment. Peut-être êtes-vous déjà utilisateur d’une Tesla ou d’une Nissan Leaf avec des fonctions autonomes. Ces voitures sont déjà capables de rouler toute seules sur des portions de route, comme des autoroutes ou des nationales à la signalisation au sol bien marquée. Par contre, vous devez garder vos mains sur le volant et rester aussi attentifs que si vous conduisiez. Ces voitures sont au niveau 2 d’autonomie. Pour en savoir plus sur les niveaux d’autonomie, vous pouvez vous reporter à ma vidéo numéro 8, disponible dans mes fiches ici.

Honda s’apprête à commercialiser la première voiture avec une autonomie de niveau 3, la Legend Hybrid EX. Ce niveau d’autonomie permet à la voiture de rouler toute seule sur des portions de routes qui seront suffisamment adaptées pour ce type de véhicules, comme une autoroute. Elle est capable de prendre la décision de doubler, suivant la vitesse que vous aurez paramétré à votre régulateur.

La grande différence avec les voitures de niveau 2, c’est qu’en niveau 3, vous pourrez en profiter pour lâcher le volant. Votre attention pourra alors se porter sur autre chose que la route. La voiture embarque même un lecteur DVD qui pourra être activé lorsque votre véhicule est en mode autonome.

Mais, nous ne sommes encore qu’en niveau 3, il est donc hors de question de vous endormir ou de tourner le siège vers l’arrière pour une partie de cartes. Pour cela, vous devrez attendre le niveau 4. Ici, la voiture pourra à tout moment vous demander de reprendre les commandes. Des caméras tournées vers le conducteur vérifieront à tout moment si vous êtes capable de reprendre ou pas les opérations. Si ce n’est pas le cas, elle utilisera des alarmes sonores et vibrantes au niveau de la ceinture de plus en plus fortes. Si vous refusez de vous mettre en situation, ou que vous n’êtes simplement plus en état de reprendre les commandes, la voiture commencera à décélérer, se mettra en warning et ira se garer sur le côté de la route.

Honda est donc le premier constructeur à avoir le droit de commercialiser une voiture de niveau 3 d’autonomie, à destination du grand public. D’autres devraient suivre dans les prochains mois. La Honda Sensing Elite est disponible uniquement sur le territoire japonais pour le moment. Les lois françaises sont pour le moment très strictes, et se sont même refermées un peu plus ces derniers mois, par rapport aux véhicules autonomes. Nous risquons donc de devoir attendre quelques années de plus avant de voir débarquer des voitures de niveau 3 sur notre territoire.

Internet par Starlink

Satellite de la constellation Starlink. © SpaceX

Starlink va très bientôt ouvrir la commercialisation de ses services en France.

C’est quoi Starlink ?

C’est une nouvelle façon de recevoir Internet, où que vous soyez sur Terre, et à haut débit. Le système repose sur une constellation de satellites. Et où que vous soyez sur la planète, vous pouvez toujours pointer une antenne sur votre toit pour accéder à Internet. Cela fonctionnera partout, même dans la campagne la plus profonde, au cœur d’un désert, au sommet d’une haute montagne, même si vous êtes dans ce que l’on appelle une zone blanche.

Internet par satellite, cela existe depuis plus de 20 ans déjà !

Effectivement, des fournisseurs d’accès à Internet disposent déjà de tels services. Vous pouvez déjà accéder à du haut débit par ce biais, mais il y a de nombreux défaut avec ces services. Les satellites utilisés sont des satellites géostationnaires, c’est à dire qu’ils sont sur une orbite où leur vitesse de déplacement autour de la Terre est rigoureusement la même que la vitesse à laquelle notre planète tourne. Du coups, ils sont toujours exactement au même endroit au-dessus de nos têtes. Il suffit donc de pointer l’antenne dessus.

En quoi c’est un défaut ?

Tout simplement, l’orbite utilisée pour les satellites géostationnaires est situé à 36 000 km de la Terre. Et cela commence à être loin pour y envoyer et recevoir des données. Imaginez que vous lancez une requête sur un moteur de recherche de vidéo. Votre requête est envoyée au satellite à la vitesse de la lumière. Il faut donc 120 millisecondes pour atteindre le satellite. Le satellite renvoie ensuite votre requête sur une antenne située sur Terre, ce qui prends de nouveau 120 millisecondes. Votre requête va ensuite sur le serveur de votre moteur de recherche : Google, Youtube, Netflix, etc. Ce serveur renverra le résultat à l’antenne située sur Terre. Ces temps de trajets sur Terre sont très courts car les distances sont petites, de l’ordre de quelques millisecondes. L’antenne renverra le résultat au satellite, 120 millisecondes supplémentaires. Et le satellite renverra enfin le résultat à votre propre antenne, et encore 120 millisecondes. Nous sommes au minimum donc à un total de 480 millisecondes, rien que pour les trajets entre la Terre et le satellite. En comptant la latence supplémentaire, via les serveurs et la gestion de perte de paquets, nous arrivons en réalité à une durée de 650 ms entre votre requête et la réponse. C’est ce que l’on appelle le ping.

Hoo, ça va ! C’est pas la mort d’attendre, c’est même pas une seconde !

Oui, sur une recherche sur Youtube ou Netflix, attendre un peu plus d’une demi-secondes, ce n’est pas embêtant. Surtout qu’une fois que votre vidéo est lancée, le débit peut être assez bon. On parle de 50 Mb/s en réception et 8 Mb en émission, ce qui est loin d’être mauvais. On a l’équivalent d’un très bon ADSL ou du débit d’une petite fibre.

Antenne pour recevoir internet via les satellites Starlink. © SpaceX

Mais si je parle de ping de 650 ms à un joueur par exemple, il vous dira que ce n’est même pas la peine d’y penser ! Un ping aussi important ne vous donne accès qu’aux applications non interactives, uniquement de consultation. C’est, par exemple, absolument impossible de jouer en ligne, faire du partage d’écran ou utiliser des éditeurs de documents en ligne comme Google Docs ou Office en ligne. Il vous faudra attendre 650 ms avant que vous puissiez voir le chiffre que vous venez d’entrer dans votre document. Et pareil entre chaque caractère ! Pour les joueurs en ligne, cela devient tout simplement inutilisable car la moindre direction que vous entrez ne sera perçu par le serveur que 325 ms plus tard et 650 ms sur votre écran. Pendant ce temps les autres joueurs vont auront déjà fragué 3 fois ou votre voiture se sera pris le premier poteau sur le rebord de la route. Un ping classique sur réseau 4G ou par l’ADSL est de 20 à 50 ms et le ping de la fibre ne dépasse généralement pas les 3 à 5 ms.

Et en quoi Starlink est une révolution ?

Tout simplement, les satellites sont à une altitude bien plus basse, environ 550 km seulement, soit 65 fois plus prêts ! Le ping est donc divisé par 65, on arrive entre 10 et 20 ms, ce qui est largement suffisant pour les applications interactives et le jeu.

Comment ce satellite reste au-dessus de nous alors ?

C’est tout simplement une autre approche qui est utilisée. Il n’y a plus un seul satellite géostationnaire au-dessus de vous, mais toute une constellation de satellites. A l’heure d’aujourd’hui, ce sont près de 1000 satellites Starlink qui sont répartis au-dessus de nos têtes. Lorsque vous pointez une antenne de la constellation, vous êtes sûr d’avoir toujours au moins un satellite avec qui communiquer.

Très régulièrement, SpaceX envoie plusieurs dizaines et bientôt des centaines de satellites d’un coups à bord de leurs fusées Falcon 9 et bientôt Starship. D’ailleurs, si vous voulez plus d’informations sur la future fusée Starship, la plus puissante de l’histoire, vous pouvez vous rendre sur ma chronique numéro 7 dont voici la fiche.

L’objectif annoncé par Starlink est d’avoir en tout 42 000 satellites en orbite pour une utilisation optimale.

Ce sont pas ces satellites qui gênent les astronomes ?

Oui, effectivement. Starlink est une source de pollution lumineuse. Lorsqu’une fusée Falcon 9 déploie ses dizaines de satellites à chaque lancers, nous pouvons les voir à la queue-leu-leu, dans le ciel au coucher du soleil ou à son lever. Les rayons de notre étoile viennent rebondir sur eux et ils deviennent ainsi très visibles, sous la forme d’un ligne de points quasiment immobile dans le ciel. Certaines de ces lignes ont déjà été prises pour des OVNIs par des personnes ne connaissant pas le phénomène.

Cette pollution lumineuse pose notamment problème aux astronomes qui ne peuvent plus observer d’astres qui se situent dans la zone où se trouve cette traînée, à trop forte luminance. SpaceX tente à chaque envoi de trouver une solution, notamment en peignant ses satellites avec une peinture qui ne réfléchit pas la lumière. C’est mieux, mais ce n’est pas encore parfait.

Et c’est un problème permanent ?

Non, heureusement. Les satellites Starlink ne sont un problème que pendant la durée de leur mise en orbite. Une fois que chaque satellite a rejoint sa place définitive, le problème disparaît.

C’est pas un problème tous ces satellites là-haut ?

Effectivement, beaucoup de satellites en fin de vie posent problème. Ils peuvent entrer en collision entre eux et leur destruction peut causer la création de milliers, voire millions de petites pièces qui fileront à des vitesses vertigineuses dans l’espace. Si une fusée ou un astronaute se retrouve sur la trajectoire d’un de ces satellite ou d’un de ses débris, cela peut devenir un piège mortel.

Pour les satellites en fin de vie, nous les plaçons souvent dans ce que l’on appelle des orbites garage, c’est à dire des orbites où l’on envoie peu de missions, habitées ou automatiques. De plus, même si l’on regarde une carte des débris spatiaux, nous avons l’impression que c’est devenu une immense poubelle ! Or, en réalité, chaque point que nous voyons est à des centaines, voire des milliers de km, les uns des autres. C’est aujourd’hui encore très peu probable de se retrouver sur la trajectoire de l’un d’eux. Mais ce n’est pas impossible, non plus !

Enfin, les satellites Starlink sont envoyés en orbite basse, à seulement 550 km d’altitude. A cette altitude, même si l’atmosphère y est extrêmement rare, elle n’est pas encore complètement absente. Les satellites en fin de vie vont donc freiner leur course progressivement, en se rapprochant de plus en plus de notre planète. Jusqu’au jour où ceux-ci seront trop freinés pour se maintenir en orbite et viendront exploser sous la forme d’une simple étoile filante lorsqu’ils rentreront, à haute vitesse, dans les hautes couches de l’atmosphère.

Quel est le prix d’une connexion à Starlink ?

C’est là où le bas blesse. Le tarif se repose sur les tarifs de connexion à Internet aux États-Unis. Il ne faut pas oublier que l’Europe et la France bénéficient de tarifs très avantageux par rapport au reste du globe. Aux États-Unis, une connexion Internet est de l’ordre de 100 $ par mois quand nous avons le droit à des tarifs situés entre 10 et 50 € par mois suivant les services dont vous avez besoin.

Pour vous connecter à Starlink, il vous faudra déjà acquérir une antenne compatible au tarif d’environ 500 €, puis vous aurez à payer un abonnement d’environ 100 € tous les mois. C’est pourquoi, du moins en Europe, sauf si les prix baissent plus tard, Starlink sera à réserver pour les zones blanches, là où le haut débit n’est pas encore accessible.

Et quel est le débit justement ?

Aujourd’hui, avec seulement 1 000 satellites en orbite sur les 42 000 prévus, Starlink propose un débit d’environ 50 Mb par secondes, en gros un très bon ADSL ou un petit débit fibre. Le ping est encore assez haut, puisqu’il est de 20 à 40 ms, mais déjà 10 fois inférieur à un ping de satellite géostationnaire.

Elon Musk a annoncé qu’avant la fin de l’année, les débits devraient grimper à 300 Mb et le ping baisser à 20 ms. Nous commençons à avoir ici les capacités d’une connexion fibre de bonne qualité.

Y a t-il des concurrents à Starlink ?

Oui, mais pas encore opérationnels. Les anglais OneWeb ont déjà lancés quelques dizaines de satellites de leur flotte avec des fusées russes Soyouz. La future fusée européenne Ariane 6 est pressentie pour continuer la livraison des satellites lorsque celle-ci sera, elle-même, opérationnelle en 2022. La constellation OneWeb devrait comporter 2 000 satellites dans sa flotte.

Amazon travaille également sur un projet de flotte de satellites, le projet Kuiper, qui devrait déployer 3 236 satellites en 10 ans.

D’ici une dizaine d’année, il est fort possible que les tarifs de connexion à ces constellations de satellites deviennent aussi intéressants que les offres fibres ou 4G et 5G. Ces constellations pourraient donc, à terme, supplanter les opérateurs Internet pour les foyers en offrant une mise en place plus aisée que les offres filaires actuelles.

Quand aux appareils mobiles, à moins que des antennes satellites puissent être assez miniaturisées pour être intégrées dans nos téléphones, lunettes connectées et ordinateurs, tout en pouvant fonctionner à l’intérieur de bâtiments, ceux-ci continueront probablement de fonctionner encore sur des réseaux hertziens comme le font nos réseaux 4G et 5G actuels. Mais, sait-on jamais !

Une ferme éolienne au Danemark

Parc éolien off-shore. © DR

Dans quelques décennies, nous devrions commencer à utiliser des centrales à fusion afin de produire de l’énergie propre tout en se protégeant de tout accident potentiel sur une centrale à fission nucléaire actuelle. Pour en savoir plus, je vous propose de cliquer sur l’épisode numéro 3 disponible dans mes fiches.

En attendant cette révolution de la production énergétique, le Danemark va tenter une nouvelle voie très prometteuse.

A 80 km de la côte ouest du pays, le Danemark va construire une immense ferme éolienne qui devrait compter plusieurs centaines d’éoliennes reliées à une île artificielle de 120 000 m², soit la superficie de 18 terrains de football. Ce projet à 28 milliards d’Euros sera le plus grand projet de construction de l’histoire du pays.

La puissance générée par ces éoliennes devrait produire tout d’abord 3 Gw/h entre 2027 et 2030, puis jusqu’à 10 Gw/h à terme.

Et ça donne quoi ?

Disons que 10 Gw/h suffisent pour alimenter jusqu’à 10 millions de foyers ! Par comparaison, une centrale nucléaire à fission actuelle ne dépasse que rarement 1 Gw/h. Et 10 Gw/h représente le tiers de la consommation d’un pays comme la France.

Mais il n’y a que 8 millions d’habitants au Danemark !

C’est là que cela devient intéressant. C’est que non seulement, l’ensemble du pays sera couvert, mais le Danemark pourra également commercialiser l’excédent d’énergie aux pays qui l’entourent !

Haaa, malin !

Le Danemark s’est engagé à réduire de 70 % ses émissions de CO2 d’ici 2050 ! Après avoir annoncé se passer de ses gisements de pétroles et de gaz dans la mer du Nord à la même période, le pays devrait devenir un exemple de la transition énergétique.

Impression d’os dans le corps

Impression de matière osseuse. © DR

L’impression 3D est une véritable révolution dans de nombreux domaines. Nous l’avons déjà vu notamment pour son exemple dans la construction de bâtiments. Vous pouvez retrouver cette chronique dans l’épisode numéro 13, qui est dans cette fiche.

Cette fois-ci, nous allons voir une de ses applications dans le domaine médical. C’est d’ailleurs loin d’être la seule application de l’impression 3D dans le milieu médical.

Il est déjà possible d’imprimer des dents, des os, voire des organes avec une imprimante 3D. Mais jusque là, l’impression était faite à l’extérieur du corps humain, puis implantées ensuite.

Ici, la nouveauté vient du fait que des chercheurs australiens ont mis au point une technique pour imprimer de l’os directement dans le corps du patient.

Pour éviter tout rejet d’un os artificiel, il était, jusqu’à présent, question de faire des greffes osseuses autologues. C’est à dire que la réparation d’os était faite à partir de bouts d’os ponctionnés ailleurs sur le squelette du même patient. Ce qui multiplie la durée des interventions, voire même leur nombre, et cela pouvait causer des préjudice à la partie ponctionnée.

Les travaux de ces chercheurs ont menés à expérimenter une impression 3D, directement sur le patient, à température ambiante. Les tissus imprimés sont un mélange de céramique et de cellules vivantes provenant du patient. Ces cellules vont se multiplier ensuite, naturellement, pendant plusieurs semaines jusqu’à réparer l’os de façon durable.

Perseverance sur Mars

Ingenuity et Perseverance – © NASA

Sauf si vous habitez une grotte, vous avez dû voir que quelque chose venait d’arriver sur Mars !

Vous vous dites peut-être que c’est un grand battage médiatique pour un énième robot que l’on envoie sur Mars, pas de quoi en faire un plat !

D’un côté, vous n’avez pas tord ! La première tentative de vol automatique en direction de Mars date de 1960, avec Mars1960A, à peine 3 ans après Spoutnik, le premier satellite artificiel et ses petits ‘bip bip’. Ces petits ‘bips’ étaient simplement une preuve que les radio-amateurs pouvaient percevoir comme quoi les russes avaient réussis à envoyer un objet en orbite.

A cette époque, beaucoup croyaient encore aux martiens, à des chenaux qu’ils avaient creusés sur toute la planète pour l’irriguer depuis les pôles. Ce mythe provient du livre « La Pluralité des Mondes » de 1862, de Camille Flammarion, celui là même, qui a créé les éditions Flammarion. L’auteur se basait sur le résultat des observations de la planète avec le matériel de l’époque. Des taches et des rayures semblaient naître régulièrement. Et plutôt que de remettre en question leur matériel, ils ont préférés imaginer des mondes extraordinaires.

C’est bien de garder une part de rêve, non ?

Vu les connaissances de l’époque, c’est normal en effet. Mais cela manquait cruellement de rigueur scientifique.

Bon, et ce robot des années 60 ?

Ce fut un échec… comme ses successeurs 1960B, 1962A, 1962B, 1962C, Mars1, Zond2 et Mariner 3. Et finalement comme environ une mission sur 2 qui tente d’aller en direction de la planète rouge.

Mariner 4, première sonde à atteindre Mars. © NASA

C’est finalement en juillet 1965 que la sonde américaine Mariner 4 s’approche suffisamment de Mars pour la survoler et envoyer ses premières photos depuis l’espace.

Haaa ! Ils ont dû être heureux alors !

Ben, pas vraiment… Ils s’attendaient à un monde un peu plus aride que la Terre mais avec des traces de vies comme de la végétation. Et finalement, les 22 photos en basse résolution qui arrivent montrent un paysage gris semblable à la Lune, avec de nombreux cratères d’impacts. De plus, on ne détecte qu’une très fine couche atmosphérique, une température au sol de 100° en dessous de 0 et pas de champs magnétique. Adieu les fantasmes de nouveaux continents à explorer ! On ne croit définitivement plus à la vie sur cette planète…

En novembre 1971, Mariner 9 est la première mission qui arrive à atteindre Mars et même à se satelliser autour de la planète. Ce n’est désormais plus un simple survol mais on va pouvoir cartographier une bonne partie de la planète.

Cool ! On a dû découvrir toutes les merveilles de Mars !

Non… Lorsque la sonde est arrivée en orbite martienne, une grosse tempête battait son plein. Elle avait dégagé un nuage de poussière qui occultait toute la planète. On ne voyait rien ! Heureusement, cette tempête se calma et la poussière retomba sur le sol après un mois d’attente.

Même si la planète semblait toujours aussi aride, elle nous a quand même offert un beau spectacle en dévoilant des paysages bien plus intéressants que les missions précédentes, avec des volcans de 21 km d’altitude, des canyons de 6 km de profondeur, et même ce qui pourrait ressembler à d’anciens lits de rivières ! On s’est de suite mis à imaginer de nouveau de la vie sur la planète, au moins dans un lointain passé.

Alors qu’ils excellaient pour explorer la planète Venus, les russes n’arrivaient jamais à atteindre Mars. Ce sont encore les américains qui arrivèrent à poser pour la première fois non pas un atterrisseur, mais deux : Viking 1 et 2, en septembre 1976. C’est un succès total, ils transmettront des photos et des données à la Terre pendant 6 ans !

Pourquoi en envoyer deux d’un coups ?

Puisqu’une mission martienne sur 2 est un échec, on a forcément plus de chances d’arriver à bon port avec deux missions envoyées à quelques jours près.

Vue de Mars par une des sondes Viking. © NASA

Les missions Viking apportent enfin les premières images depuis le niveau du sol. On découvre qu’il y a probablement eu de l’eau liquide dans un très lointain passé et on découvre des variations de CO2 dans l’atmosphère. Certains y voient le résultat d’une activité géologique, d’autres d’une activité microbienne.

En juillet 1997, pour la première fois, Mars recevait un robot capable de se mouvoir sur le sol. Le rover Sojourner est enfermé dans l’atterrisseur Pathfinder, lui-même enfermé au milieu de tout un ensemble de ballons qui touchent le sol puis rebondissent plusieurs fois, afin de protéger sa cargaison. Le rover est un petit robot monté sur 6 roues de 10,5 kg pour 65 cm de long et 30 cm de haut. Avec 6 minutes entre le moment où l’on envoie un ordre au robot et le moment où il reçoit l’ordre, il est très difficile de le piloter à distance. Il a un mode autonome rudimentaire qui lui permet d’avancer sans attendre un retour de la Terre, soit 6+6 minutes, donc 12 mn après un éventuel blocage. Le robot avait pour mission de survivre 7 jours et il a travaillé plus de 80 jours, et s’est déplacé sur 100 mètres. Il a découvert des roches aux bords arrondis comme s’ils s’étaient entrechoqués dans une rivière. On a également vu apparaître de petits nuages dans le ciel.

Pour l’anecdote, le robot Sojourner a été mis au point par les mêmes ingénieurs qui ont créés, plus tard, les robots aspirateurs Roomba !

En janvier 2004, deux nouvelles missions américaines ont réussis à se poser avec chacune un robot bien plus important que Sojourner. Ce sont les infatigables Spirit et Opportunity. Ils devaient fonctionner avec leurs panneaux solaires pendant 3 mois et parcourir 600 mètres. Spirit a finalement fonctionné 6 ans avant de s’embourber dans une dune de sable après un parcours de presque 8 km. Et Opportunity a travaillé pendant 14 ans et a parcouru 45 km ! C’est une tempête de sable qui a encrassé ses panneaux solaires qui ont fini par lui couper toute son énergie. Bien plus gros que Sojourner, Spirit et Opportunity avait une longueur de 260 cm et une hauteur de 150 cm pour un poids total de 185 kg. Ils ont atterris grâce à une série de ballons qui ont amortis la chute avant de rebondir, comme pour Sojourner. Ces deux robots ont confirmés les traces d’écoulements d’eau par le passé, il y a 3,5 milliards d’années. L’eau a même formé des rivières, des lacs et des mers.

En 2012, c’est au tour du robot Curiosity de partir seul sur Mars. De la taille d’un gros 4×4 pour 900 kg, ce robot ne fonctionne plus avec des panneaux solaires mais avec une mini centrale nucléaire embarquée. Il a ainsi assez de puissance pour faire fonctionner de nombreux appareils, dont des fours à haute température pour analyser les roches. Le robot est conçu pour parcourir 20 km et son énergie embarquée peut le faire fonctionner pendant 14 ans, soit jusqu’en 2026.

Avec sa très lourde charge et l’envie de ne pas polluer par avance, par des bactéries terriennes, le lieu où le robot va se poser, Curiosity a atterri d’une étrange façon. Ici, pas de ballons pour faire rebondir l’engin, on commence également à réfléchir comment faire atterrir de très lourdes charges. Curiosity est enfermé dans une capsule qui le protège lors de son entrée dans l’atmosphère. Puis, un parachute se déploie. Ensuite, Curiosity est accroché à un système de propulsion qui s’allume pour ralentir encore la descente avant de se stabiliser à une vingtaine de mètres d’altitude. Le robot descendra ensuite par une grue, le Sky Crane. Lorsque le robot touchera le sol, l’appareil muni de propulseur se détachera et ira s’écraser plus loin.

Vous imaginez que les 7 minutes de cette descente, avec la complexité que cela engendre, sont d’une terreur énorme pour les ingénieurs de la NASA qui ne peuvent rien faire à une telle distance. Ils ne font que lire la télémétrie et les différentes logs qui indiquent que les étapes se sont bien passées les unes après les autres. Cette expression des « 7 minutes de terreur » est depuis restée.

Même si ce rover est américain, de nombreux appareils scientifiques embarqués sur le robot sont européens, et même français. De nombreux scientifiques toulousains collaborent sur Curiosity. D’où une certaine fierté nationale autour de ce robot.

Du plus petit au plus grand : Sojourner, Spirit/Opportunity, Curiosity. © NASA

Avec plus de 20 km déjà parcourus, Curiosity nous a apporté un lot conséquent d’images de paysages fantastiques de montagnes, de dunes, de cratères. Le robot a découvert un ancien lac, un cycle du méthane qui pourrait provenir d’une vie microbienne, des traces organique c’est à dire les briques nécessaires pour fabriquer la vie.

Et Perseverance ?

La semaine dernière, c’est au tour du robot Perseverance d’atterrir sur Mars. Ce robot est un cousin très proche de Curiosity. Ils ont la même apparence, la même façon d’atterrir mais des expériences scientifiques différentes. Curiosity devait détecter des traces de matières organiques, et il l’a fait. Perseverance va essayer d’aller plus loin et détecter des traces de vie microbienne, passées voire présentes. Comme Curiosity, de nombreux instruments scientifiques embarqués sont d’origine française et des scientifiques toulousains travaillent en étroite collaboration avec l’équipe américaine.

Le robot va prélever des échantillons qu’il va analyser dans son propre laboratoire. Et les plus intéressants seront placés dans des tubes scellés qui seront déposés sur le sol le long de son parcours.

Comme le petit Poucet ?

Exactement ! Et c’est une mission conjointe entre l’Europe et les Etats Unis qui devrait atterrir en 2026 qui fera le même parcours pour récupérer les tubes scellés avant de les renvoyer sur Terre, avec une date d’arrivée en 2031, pour une analyse beaucoup plus poussée. Cela pourrait être notre premier retour d’échantillons du sol martien, sauf si une autre mission précipite ces dates. Et le retour d’échantillons est la dernière étape avant que la NASA ne décide d’envoyer une mission habitée.

Autre particularité de cette mission, Perseverance va déposer Ingenuity, le premier hélicoptère qui volera ailleurs que sur Terre. Mars a une atmosphère bien plus mince que sur Terre, le petit hélicoptère de 2 kg devra déployer beaucoup de force pour se maintenir en vol. Ses pales devront tourner 10 fois plus vite que s’il était sur Terre. C’est pour cela qu’il ne fera que quelques vols de quelques minutes entre deux recharges par son petit panneau solaire. Ses plus longs vols ne devraient pas excéder 5 mètres d’altitude sur une distance de quelques centaines de mètres. Ingenuity n’est censé faire que 5 vols de qualifications sur un mois, pour valider le concept, avant d’être simplement abandonné sur place. Mais il ouvrira un nouveau champs de futurs vols bien plus conséquents dans les années à venir.

Tevel Aerobotics cueille les fruits

Cueillir des fruits avec des drones. © Tevel Aerobotics

Cueillir les fruits dans un verger est une tache longue et fastidieuse. Trouver des jeunes qui veulent faire « les saisons » devient de plus en plus compliqué. N’étant pas toujours ramassés à temps, une partie des fruits finissent par pourrir et ne sont plus commercialisables. La pénurie de cueilleurs de fruits entraîne la perte d’environ 10 % des fruits d’un verger.

Tevel Aerobotics a mis au point un cueilleur de fruits automatisé. Ce n’est pas le premier, il en existe déjà qui utilisent des bras de robots pour venir chercher les fruits les uns après les autres.

Le système FAR repose sur un ensemble de drones quadricoptères qui volent en permanence au-dessus d’un chariot qui circule lentement entre les rangs. Les drones repèrent les fruits, estiment leur mûrissement et vient les ramasser si ceux-ci sont prêts à être commercialisés. Le drone se rapproche et attrape le fruit avec une pince à trois doigts puis le tourne sur lui-même pour le détacher. Enfin le robot lâche le fruit au-dessus du chariot.

Il faut charger les drones très souvent, non ?

L’ingéniosité du système FAR est que les drones possèdent une espèce de cordon ombilical qui le rejoignent au chariot. Celui-ci possède une grande batterie qui permet aux drones rattachés de pouvoir voler plusieurs heures.

Le producteur peut suivre en direct le ramassage des fruits depuis une application qui lui indique en permanence le niveau de mûrissement ou la moyenne des calibres des fruits.

FAR ne sait actuellement travailler qu’avec les pommes, les oranges et les avocats.

De plus en plus, le métier d’agriculteur se dirige vers le métier de gestionnaire.

Mojo Vision

Lentille de réalité mixte. © Mojo Vision

Dans ma chronique numéro 11, je vous expliquait la différence entre la réalité virtuelle, la réalité augmentée et la réalité mixte. Je vous présentais ainsi le principe des lunettes de réalité mixte de Vuzix. Vous pouvez retrouvez cette vidéo en cliquant sur la fiche qui se trouve ici !

Mojo Vision veut aller plus loin que les lunettes de réalité mixte et travaille sur un concept de lentilles de contact pouvant afficher des informations directement sur votre regard.

Plus besoin de porter des lunettes, ces lentilles sont reliées par un système sans fil à un appareil externe, probablement un smartphone caché dans votre poche. C’est lui qui s’occupe de tous les calculs.

Les lentilles vont pourvoir afficher toutes les informations dont vous aurez besoin dans votre vie quotidienne, comme vous rappeler le nom de votre interlocuteur, aider à diagnostiquer un patient ou rendre ludique votre pratique du sport. Les lentilles intégreront différents senseurs comme des accéléromètres ou une caméra, nécessaires pour son fonctionnement.

En fin de journée, il vous faudra quitter vos lentilles et les poser sur leur socle pour recharger leur batteries.

Mojo Vision n’a présenté encore aucun prototype fonctionnel à ce jour. Mais l’entreprise a été créée par des ingénieurs de Google et Apple et ils ont le soutien de Menicon, un constructeur de lentilles de vues japonais.

A mon avis, il ne faut pas s’attendre à un tel produit, à ce point miniaturisé, commercialisé avant quelques années encore. Cela reste encore un concept qui ne demande qu’à être concrétisé.

Une voiture sur pattes

Depuis 140 ans que la voiture existe, elle a connu plusieurs façons de se mouvoir. Elle est passée par les chenilles, les vis sans fin, le ski, le coussin d’air et même le deltaplane. A chaque fois, pour revenir aux bonnes vieilles roues, 4 pour la plupart du temps, mais parfois plus ou bien moins.

En dehors de la voie des airs, nous pourrions penser que la roue reste finalement le meilleur modèle pour aller à peu près partout, tout en pouvant appuyer un peu sur le champignon.

Le Tiger, un concept de véhicule autonome sur pattes – © Hyundai

Mais c’était sans compter sur Hyundai qui vient de dévoiler Tiger, son second concept de véhicule pouvant se déplacer sur 4 pattes !

Elle doit être lente alors ?

Et bien, pas tout à fait, puisque ses pattes sont montées sur quatre roues motrices. Elles peuvent être bloquées quand le robot se met à marcher mais rouler quand elles peuvent prendre de la vitesse.

Logiquement, le véhicule devrait être sur ses 4 roues la plupart du temps. Mais lorsqu’un obstacle infranchissable en mode roue apparaît, tel qu’un tronc d’arbre, un rocher ou des marches, les pattes vont commencer à apparaître. Elles se déploient en soulevant l’habitacle. Puis les deux pattes avant franchissent l’obstacle l’une après l’autre. Il y a toujours 3 roues sur le sol, assurant l’équilibre. Le véhicule avance puis fait de même avec les deux pattes arrières.

La Pivo 2 et son robot de bord – © Nissan

Ses roues sont omnidirectionnelles et peuvent donc se mettre en perpendiculaire avec le profil du véhicule pour rouler en crabe, comme le faisaient déjà les concepts de voiture Pivo 2 de Nissan en 2007.

Enfin, et c’est une tendance dans le design de véhicules, l’avant et l’arrière sont symétriques. En réalité, il n’y a ni avant ni arrière, chaque côté peut l’être suivant la direction.

Le conducteur doit se déplacer ?

En réalité, non et pour deux raisons.

La première est que ce nouveau genre de design symétrique est liée au fait qu’il n’y a plus de conducteur justement, donc plus de direction liée au regard du conducteur.

La seconde, c’est qu’il n’y a pas de passagers non plus. Le concept de Tiger est un véhicule pour transporter du fret, c’est à dire un cargo autonome roulant. Il s’ouvre sur le côté et offre un espace pour y déposer des médicaments, des colis ou des repas.

Ha oui, c’est un robot livreur ! Il paraît que l’on va bientôt en voir partout.

Oui, c’est probablement un type de robots qui entrera massivement dans notre quotidien d’ici 10 ans. D’ailleurs nous avions présenté les robots de Starship Technologies dans notre épisode 7, dont voici la fiche.

Le Tiger peut effectivement travailler en ville. Ses pattes peuvent être utilisées pour franchir des marches un peu hautes ou atteindre un pas de porte en hauteur pour faire sa livraison. Mais c’est dans la nature que son utilisation prend tout son sens. Hyndai semble travailler à un drone porteur pouvant le poser dans des lieux totalement dénués de routes. Le robot atteindra ensuite sa destination à travers les chemins, les collines et les obstacles qui seront sur sa route.

Dommage qu’on ne puisse pas entrer dedans.

La Elevate, concept de voiture sures pattes – © Hyndai

En réalité, le Tiger est une évolution d’un autre concept dévoilé par Hyundai en 2019, le Elevate. Cette voiture autonome est capable de transporter 6 passagers dos à dos sur tout type de terrain, même grimper sur des pentes escarpées et rocheuses d’une montagne.

Bien évidemment, un tel véhicule est particulièrement intéressant dans le transport de blessés dans un terrain très accidenté, où un hélicoptère ne pourrait pas se poser.

Hyundai insiste également sur l’utilité de tels engins, sur la Lune ou sur Mars. Ceux-ci pourraient en faciliter grandement l’exploration, soit en transportant des expériences scientifiques autonomes, soit des astronautes.

Ce concept pourrait ainsi damner le pion à Toyota qui a son propre concept de véhicule de transport lunaire. Le véhicule de Toyota est actuellement pressenti par l’agence spatiale japonaise, la Jaxa, pour servir de contribution au programme international de retour à la Lune dans les prochaines années. Mais la NASA reste maître des choix et le concept de Hyundai a toute ses chances de remporte les suffrages lors de la délibération dans quelques années. La guerre économique entre le Japon et la Corée-du-Sud continue, même sur la Lune !

Pour finir sur ce sujet, j’aimerai rappeler que la startup Cybedroid, à Limoges, avait mis au point un robot humanoïde qui possédait les même facultés de déplacement que le Tiger de Hyundai. Le LeenA possédait deux jambes montées sur roues. Il pouvait ainsi avancer comme sur des rollers pour prendre de la vitesse. Et si un obstacle, comme des marches, se trouvait devant lui, LeenA bloquait ses roues pour pouvoir utiliser ses jambes de la même manière que les autres robots humanoïdes.

On recrute des astronautes !

L’astronaute Mathias Maurer – © ESA

Depuis mes 10 ans, je rêve de partir un jour dans l’espace, pour pouvoir admirer notre belle planète dans sa globalité. Peut-être êtes-vous dans le même cas !

Profitez-en, c’est le moment ! L’agence spatiale européenne recrute la quatrième promotion d’astronautes de son histoire.

La première promotion d’astronautes date de 1978, avec 3 recrues : l’allemand Ulf Merbold, le hollandais Wubbo Ockels ainsi que le suisse Claude Nicollier. Ils ont été sélectionnés pour voler dans les navettes spatiales qui ont succédées au programme Apollo. La France avait alors son propre recrutement, au sein de sa propre agence, le CNES, avec les spationautes Jean-Loup Chrétien et Patrick Baudry qui ont volés dans des missions russes. Plus tard, le CNES recrutera également 10 nouveaux spationautes en 1985 et 1990, notamment Michel Tognini, Jean-Pierre Haigneré, Claudie Haigneré ou Jean-François Clervoy. Leurs missions sera de continuer à travailler avec l’agence spatiale russe, à travers des vols dans Soyouz et la station spatiale Mir. Ce sont ces recrues qui devaient intégrer ensuite les vols de la petite navette spatiale franco-européenne Hermes et sa station spatiale Columbus. Malheureusement, le projet Hermes a été abandonné en 1992.

La seconde promotion européenne date de cette année 1992. Cette fois-ci la France ne fait plus bande à part. Parmi les 6 nouvelles recrues, c’est Jean-François Clervoy, sélectionné auparavant par le CNES, qui représentera la France au niveau européen. Cette promotion sera orientée vers le programme américain et volera dans les navettes spatiales américaines.

La troisième promotion, beaucoup plus récente, date de 2009. Six astronautes ont de nouveau été sélectionnés à travers l’Europe pour participer aux vols dans la Station Spatiale Internationale. Parmi eux, un français, Thomas Pesquet, qui retournera dans l’ISS dès cette année à bord d’une capsule Crew Dragon de SpaceX.

A partir du 31 mars prochain, l’Europe va lancer sa quatrième campagne de recrutement qui se clôturera le 28 mai. S’en suivra un très long processus de sélection pour trouver des femmes et des hommes capable de travailler dans des milieux hostiles et dangereux tout en gardant la tête sur les épaules à chaque instant. L’espace est milieu où la moindre erreur peut entraîner non seulement sa mort mais la mort de tout l’équipage.

Cette nouvelle campagne ne se ferme pas aux personnes handicapées, tant que leur handicap ne leur empêche pas de mener leur mission à terme.

Bien évidemment la condition physique doit être au top et avoir une excellente mémoire. Thomas Pesquet revient sur toute cette période du recrutement sous les traits de la dessinatrice Marion Montaigne dans la BD « Dans la combi de Thomas Pesquet ». Il précise qu’il ne fait pas forcément être le meilleur dans chaque domaine, mais être très bon dans le maximum.

Cette sélection va prendre près d’un an et demi et les résultats seront attendus en octobre 2022.

Quelle sera la tache de ces nouveaux astronautes ?

Nous en saurons plus le 16 février, mais nous pouvons déjà présager que la thématique de ce nouveau corps d’astronautes européen sera orienté vers la Lune. L’Europe participe grandement au programme de retour à la Lune américain en fournissant les modules de services des nouveaux vaisseaux Orion mais aussi une bonne partie des modules de la nouvelle station spatiale LOPG, souvent appelée Gateway, qui sera en orbite autour de la Lune. De plus l’Europe devrait également envoyer des atterrisseurs cargos sur la Lune, les European Large Logistics Lander (EL3) afin d’accompagner les missions habitées.

En échange de tous ces services, l’Europe devrait décrocher des places pour des vols à bord de la nouvelle station spatiale Gateway, et peut-être également directement sur le sol lunaire.

A moins que le 16 février, on nous annonce que l’Europe va enfin développer son propre service d’envois d’astronautes dans l’espace et que ce nouveau recrutement est fait pour voler dans nos propres capsules ou navettes ! Entre nous, je n’y crois pas un instant…

Revolve Air

Concept de fauteuil roulant pliable Revolve Air – © Revolve Wheel

Aujourd’hui, nous savons miniaturiser beaucoup de choses : les ordinateurs, les téléphones portables, les caméras, les jupes… Mais une de nos plus vieilles inventions reste difficile à réduire tout en gardant ses propriétés : la roue.

Un jeune designer allemand, Andrea Mocellin, a peut-être trouvé une solution en créant Tourner, une roue qui se divise en 6 et se replie sur son moyeu central. Une fois replié, la roue libère 60 % de son espace. Son créateur avait présenté son principe en 2018 et revient maintenant avec une application qui pourrait faciliter la vie de nombreuses personnes en fauteuil roulant.

Sa société, Revolve, a mis au point le Revolve Air, un fauteuil roulant pliable utilisant deux roues de 24 pouces Tourner. Une fois les roues repliée sur l’essieu central, le siège vient se reposer sur l’ensemble qui ne forme plus qu’un petit bloc pouvant être transporté comme un simple bagage à main dans un avion, rentré dans un coffre de voiturette ou posé entre les jambes dans un bus.

La société recherche maintenant des partenaires commerciaux pour lancer une première production afin de tester Revolve Air avec les véritables contraintes de tous les jours. L’entreprise réfléchit ensuite à un système de service de location dans les lieux publics comme les gares ou les aéroports.

L’informatique quantique

Un ordinateur conventionnel fonctionne avec un langage binaire. Il ne sait compter et traiter des informations que si elles sont une suite de 0 et de 1. Le processeur d’un ordinateur que l’on pourrait schématiser basiquement comme son cerveau est composé de transistors, c’est à dire des interrupteurs microscopiques qui font passer du courant, 1, ou pas de courant, 0. Ensuite des portes logiques s’occupent d’additionner, soustraire ou comparer ces données. Un processeur de PC moderne possède environ 10 milliards de transistors.

Un bit est l’unité de base, il est soit 0, soit 1. Pour qu’un ordinateur puisse communiquer avec nous, il doit traduire tous nos ordres en 0 et 1, faire ses calculs, puis retransformer ses 0 et 1 en langage compréhensible par un humain.

Ordinateur quantique D.Wave – © D-Wave Systems Inc.

Quelle est la différence avec un ordinateur quantique ?

Avant cela, je vais juste revenir sur ce qu’est la mécanique quantique.

Il paraît que c’est plus fort que la magie !

Non, il n’y a rien de magique là-dedans. Mais, en effet, de nombreux charlatans essaient de vendre des possibilités magiques sur quelque chose qu’ils croient maîtriser. Alors qu’en réalité, ils mélangent des faits effectivement constatés avec des fantasmes de science-fiction. Et bien sûr, ils n’en apportent pas vraiment la preuve !

Bref, fermons la parenthèse !

Dans l’infiniment petit, nous avons découvert qu’une particule pouvait être dans deux états à la fois. C’est à dire qu’elle peut être à deux ou même plusieurs positions différentes au même moment, tant qu’on ne l’observe pas ou que rien ne vient la perturber. Par contre, si on l’observe, que l’on prenne une mesure, elle n’a plus qu’une seule position. C’est ce que l’on appelle la superposition quantique.

Pour expliquer le principe, le physicien Erwin Schrödinger nous propose d’imaginer une boite, dans lequel on place un chat. On y met également une source radioactive.

Oooh, le pauvre chat !!

Cette source radioactive est mesurée en permanence par un compteur Geiger. Si celui-ci détecte un certain niveau de radioactivité, il casse un flacon contenant un gaz mortel qui tuera instantanément le chat.

Et on ferme la boite.

Non, mais t’es méchant avec Nao !!

Maintenant que la boite est fermée, il est impossible de savoir si le chat est toujours vivant (1), ou s’il est mort (0). Le chat est finalement dans les deux états en même temps, vivant ET mort.

Mais ouvre !! J’espère qu’il va bien, sinon je serais pas contente !

En ouvrant la boite, nous pouvons l’observer. Dans notre cas, il est vivant.

Attention, en réalité un chat ne peut pas être quantique. Cela ne se passe qu’avec des éléments de l’infiniment petit.

Dans la mécanique quantique, seule l’observation permet de connaître la valeur d’une donnée. Tant qu’elle n’est pas observée, elle peut avoir plusieurs valeurs en même temps.

La superposition d’un |0> et d’un |1> s’appelle un qubit, ou bit quantique.

Un ordinateur quantique va donc utiliser comme base un qubit et non plus un bit.

Et qu’est ce que cela change ?

Pour simplifier, quand un ordinateur conventionnel traite une série de bits, il les traite à la queue-leu-leu, les uns après les autres. Un ordinateur quantique recevra des qubits, soit des 0 et des 1 superposés, qu’il traitera en une seule fois. De plus, on peut donner des coefficients sur chaque état d’un qubit, pour varier leur importance dans le résultat.

La puissance d’un ordinateur quantique peut se mesurer en nombre de qubits qu’il peut traiter ainsi à la fois. Un ordinateur quantique pouvant traiter 20 Qubits a l’équivalent de puissance de calcul d’un ordinateur conventionnel de bureau. Pour 40 Qubits, nous avons l’équivalent des plus gros calculateurs du monde. Le jour ou nous arrivons à produire un ordinateur de 300 Qubit, nous obtiendrions la même puissance de calcul que si nous possédions un ordinateur conventionnel de la même taille que l’ensemble de l’univers observable. Aujourd’hui, début 2021, les ordinateurs quantiques les plus puissants font entre 28 et 53 qubits. Et la tendance est presque à une multiplication par deux tous les ans.

Cela doit donner des jeux démentiels dessus !

Et bien, c’est plus compliqué que ça. Un ordinateur quantique va calculer un problème mathématique de façon extrêmement rapide. Mais c’est tout. Pour le reste, un ordinateur conventionnel sera plus rapide car plus polyvalent. Par contre, un ordinateur quantique va pouvoir faire une recherche complexe dans une base de donnée immense en un temps record. Il va crypter ou décrypter un message les deux doigts dans la RAM. Il va séquencer un génome en un claquement de doigt quand il fallait plusieurs années de calculs il y a encore quelques décennies. Cela ouvre des possibilité immenses pour de nouveaux traitements médicaux qui pourraient venir à bout de nombreuses de nos maladies. Etc, etc.

Wow, on aura ça quand à la maison ?

Et bien, figures-toi que c’est là où je voulais en venir. Tu peux déjà accéder à un ordinateur quantique à la maison depuis quelques semaines. Enfin… presque…

Azure Quantum © Microsoft

Microsoft propose un nouveau service cloud, c’est à dire en ligne, Azure Quantum. Celui-ci permet, de chez soi, de vous connecter à un ordinateur quantique d’environ 11 qubits et d’y développer des applications. Un langage spécifique, le Q# (Q Sharp) est mis à votre disposition pour y arriver. Ce service est avant tout pour permettre aux développeurs de s’initier à la programmation d’un ordinateur quantique, et ainsi d’acquérir de l’expérience avant de pouvoir travailler sur un véritable ordinateur quantique.

Et cela coûte combien ?

Ben… C’est gratuit ! … enfin presque…

C’est gratuit pendant une heure. Microsoft propose des tutoriels pour apprendre à programmer un ordinateur quantique, qui induit une logique totalement différente de la programmation classique. Mais une fois l’heure passée, la suivante est à 800 € !

Une autre solution existe pour s’entraîner. Il existe des simulateurs virtuels d’ordinateurs quantiques comme le Quantum Development Kit, qui contient également le Q#. C’est un kit de développement complet, open-source et gratuit, qui possède un simulateur pour tester ses algorithmes. Bien sur, les capacités de cet ordinateur quantique simulé sont très faibles.

Si vous êtes développeur, démarquez-vous en vous initiant avant tout le monde à l’informatique de demain !

Les cabines de Virgin Hyperloop

Cabine d’une capsule de Virgin Hyperloop – © Virgin Hyperloop

Je vous ai déjà présenté le concept de l’hyperloop dans ma chronique numéro 3 que je met en fiche ici.

C’est une sorte de train en lévitation magnétique dans un tube à vide. Il permet de transporter du fret ou des passagers à une vitesse de 1 100 km/h. Tout en sachant qu’un avion de ligne ne dépasse pas les 950 km/h.

Si on imagine une ligne hyperloop entre Paris et Albertville, éloigné de 450 km à vol d’oiseau, en une demi-heure vous êtes sur place et en moins d’une heure, vous êtes sur les pistes de ski ! Si vous préférez la plage, Crotoy situé à 150 km de Paris, sera accessible en moins de 10 mn.

Hyperloop n’est pas une marque, mais un système libre et n’importe quel industriel peut développer son propre modèle. Virgin Hyperloop fut une des premières sociétés créé en 2014 autour de ce projet. En novembre 2020, elle a fait son premier test avec des passagers sur un tronçon de 500 mètres, à une vitesse de 173 km/h.

Le 27 janvier dernier, Virgin Hyperloop a présenté dans une vidéo un voyage tel qu’il pourrait se dérouler dans une capsule hyperloop dans quelques années.

On y découvre une espèce de gare de triage dans le centre d’une ville hypothétique. L’intérieur est semblable à une gare de métro parisien. On y commande son ticket depuis une application sur son smartphone lorsque l’on arrive sur place. L’application vous indique aussitôt l’heure du départ, la porte de votre capsule ainsi que la place qui vous est attribuée. Chaque capsule contient une petite vingtaine de places, en blocs de 2 sièges ou unique, mais également des toilettes. Des messages apparaissent sur des écrans LED intégrés derrière de fines couches de bois. Ils vous invitent à vous asseoir.

A l’heure dite, votre capsule se détache des portes et part rejoindre d’autres capsules avant de commencer le voyage. Les écrans LED indiquent désormais un décompte du temps de voyage restant ainsi que la vitesse du véhicule.

Ici, pas de fenêtre. Nous sommes dans un lieu clos puisque hyperloop se déplace à travers un tube complètement opaque. Pour montrer la stabilité du voyage, la vidéo montre un thé posé sur une tablette qui ne se renverse pas malgré une vitesse de pointe à 670 miles par heures, soit un peu moins de 1 080 km/h.

Lors d’embranchements, chaque capsule prend la direction qui lui a été programmée, qu’importe sa place dans le groupe initial.

Enfin, à l’arrivée en gare, la porte s’ouvre comme si vous sortiez du métro.

Tu compares souvent hyperloop au métro !

C’est normal, car l’analogie dans son utilisation est très proche. Hyperloop permet de mettre l’ensemble d’un territoire comme la France à des durées de transports proches des stations de métro d’une grande ville. En moins d’une heure, nous pourrions traverser la France de bout en bout.

Et c’est pour quand ?

Depuis les débuts des projets hyperloop, vers 2013, on parle d’un horizon de 5 ans. A ce jour, en dehors de pistes d’essais un peu partout dans le monde, dont deux en France, cela ne va pas beaucoup plus loin. De même, aucune capsule n’a atteint la vitesse de croisière prévue de 1 100 km/h. Le record actuel est de 463 km/h, ce qui est loin d’être négligeable.

De nombreuses lignes sont à l’étude un peu partout dans le monde, avec Virgin Hyperloop mais aussi avec l’ensemble de ses concurrents. En réalité, il reste encore quelques défis technologiques avant d’arriver à pouvoir mettre en place un tel moyen de transport. Notamment, je pense aux problèmes de dilatation des pylônes et des tubes ainsi que l’évacuation des passagers en cas de problèmes.

Un bras pour Spot

Le robot Spot va pouvoir attraper des objets avec son nouveau bras – © Boston Dynamics

Spot, le robot chien de Boston Dynamics est commercialisé depuis un peu plus d’un an, avec son modèle Explorer, vendu 74 500 $. Malgré un prix qui peut sembler important, il offre tellement de possibilités que ce sont déjà pas moins de 400 robots qui ont été déployés partout dans le monde.

On retrouve Spot principalement dans le milieu industriel, mais il est également présent dans le nucléaire, la construction, l’universitaire, la santé et même le divertissement.

Boston Dynamics, qui appartient désormais au coréen Hyundai, vient de présenter un nouveau modèle de son robot, particulièrement dédié au secteur industriel, le Spot Entreprise. Celui-ci possède un processeur plus puissant afin de pouvoir s’adapter à plus de situations. La durée de sa batterie est plus longue et le robot peut travailler jusqu’à 1h30 avant de devoir être rechargé.

Désormais, ce modèle n’a plus besoin de l’homme pour remplir sa batterie puisqu’il possède une base de recharge autonome où le robot vient se poser de lui-même en repérant le QR-Code correspondant, un peu à la manière des robots aspirateurs. Pendant sa charge de 2 heures, la base en profite pour sauvegarder les données en grands volumes depuis le robot.

La base est un véritable couteau suisse, car c’est elle qui fournit un serveur Wifi pour le robot afin que l’on puisse le contrôle à distance. Si le robot s’éloigne de son Wifi, il saura de lui-même revenir au dernier point où il le percevait. Pour plus de sécurité, le Wifi du robot n’est pas forcément connecté à Internet, il peut-être utilisé dans un réseau clos.

Le Spot Entreprise peut désormais être piloté à distance par le biais d’une application Web du nom de Scout. Avec elle, vous pouvez piloter le robot comme dans un jeu vidéo en donnant des directions au robot, ou bien en pointant sur le retour caméra l’endroit où vous voulez qu’il aille. Il sais se débrouiller tout seul avec les obstacles pour y arriver. Scout permet également de programmer des routines pour des rondes ou des taches répétitives.

Le principal atout de cette nouvelle version de Spot est évidemment de le transformer en un robot le plus autonome possible. L’humain n’est là plus que pour lui donner des ordres, il doit être capable de se débrouiller pour le reste, même de se relever en cas de chute.

Boston Dynamics a également présenté son bras articulé. C’est très loin d’être la première fois où nous le découvrons, il était même présent sur BigDog depuis des années. Mais, cette fois-ci, le bras est près à être commercialisé. Il fait 1 mètre de long et est replié sur lui-même sur sa moitié. A l’extrémité, nous trouvons une pince articulée contenant des capteurs. Il peut ramasser et porter des objets jusqu’à 5 kg.

Pour le moment, le bras n’est pas utilisable par le logiciel Scout, mais ce n’est probablement qu’une question de temps.

Si vous voulez en savoir plus sur Spot, j’ai interviewé la société Intuitive Robots à Nantes dans ma cinquième chronique que vous pouvez trouvez dans la fiche ici. Intuitive Robots commercialise des solutions basées sur le robot chien de Boston Dynamics.

Des drones de livraison

Les drones sont entrés dans le langage courant désormais. Ce sont des véhicules volants pouvant être pilotés à distance ou simplement voler en totale autonomie, suivant un plan de vol qui lui a été programmé. Les plus connus étant les quadricoptères avec leurs 4 hélices, mais il existe bien d’autres formes de drones, comme des ailes delta, utilisés notamment dans le milieu agricole.

Livraison de colis par drone, l’avenir ? © Mohamed Hassan

Certes, les drones peuvent être de très bons moyens de s’amuser, (à part) tout en respectant certaines règles, mais ils peuvent avoir une réelle utilité. Je vais passer rapidement sur les drones militaires qui permettent de bombarder l’autre bout de la planète tout en restant dans son canapé. Bon, éthiquement, faut pas avoir à se regarder dans une glace après…

Les drones peuvent faire des prises de vues en hauteur pour prendre des mesures en agriculture, pour rechercher des blessés suite à un tremblement de terre, pour rechercher des formes d’anciens bâtiments dans les champs pour les archéologues ou pour rechercher un enfant perdu dans une forêt.

Ils devraient un jour transporter des humains, en tant que taxi autonome ou pour le transport de malades, sans avoir la moindre connaissance de pilotage. D’ailleurs, je présente un modèle en cours de développement chez General Motors dans ma chronique numéro 12, dont voici la fiche !

Et vu qu’ils volent au dessus de nous et qu’ils se moquent bien de nos embouteillages, ils sont de plus en plus envisagés pour la distribution de colis urgents. Dans les grandes villes, le transport par drone sera bien moins énergétique qu’un transport par camion. Dans les campagne, nous parlons ici de la livraison au dernier kilomètre, avec un camion qui vient livrer ses colis dans un lieu centralisé avant qu’un drone ne prenne le relais pour transporter chaque colis sur les derniers kilomètres.

Un drone déposant ses colis dans un réceptacle. © DPD Group

C’est pas un peu dangereux, tous ces drones là-haut ?

Oui, il reste encore quelques problèmes à régler, notamment législatifs, concernant la sécurité. Avec l’amélioration en cours de nos réseaux, chaque drone pourra communiquer en temps réel avec une tour de contrôle virtuelle qui autorisera ou pas un drone à décoller. Elle fera en sorte que les trajectoires ne se croisent jamais. De plus, chaque constructeur devra avoir des solutions de secours si un ou plusieurs moteurs ne sont plus fonctionnels. Ce n’est qu’une question de temps.

Pourquoi toujours aller plus vite ?

Je suis d’accord, il va peut-être falloir raisonner ce nouveau moyen de transport afin de le limiter uniquement à des usages demandant une livraison rapide. Mais il faut avouer que le transport par drone a aussi d’autres avantages auxquels nous ne pensons pas forcément.

C’est à dire ?

Je pense notamment au milieu humanitaire. Quand il faut livrer de toute urgence des médicaments dans des lieux reculés, en pleine savane ou au milieu d’une forêt équatoriale. S’il faut monter une expédition de plusieurs jours pour livrer un médicament alors qu’un drone peut le livrer en quelques minutes, je pense que la question … elle est vite répondue !

C’est le cas de l’entreprise allemande Wingcopter qui vient de recevoir un important financement de 22 millions de dollars pour passer à une phase industrielle et produire des drones à la chaîne.

Wingcopter propose le 178 Heavy Lif, un drone décollant à la verticale grâce à quatre systèmes d’hélices. Une fois en altitude, le drone replie ses hélices afin de voler avec des ailes porteuses comme un avion. Il peut livrer des charges de 6 kg jusqu’à 60 km aller-retour. Sa portance lui permet de voler dans des conditions météorologiques complexes comme de forts vents ou de la neige. Une fois arrivé, il peut soit se poser pour confier sa charge utile ou bien la descendre depuis un système de treuil.

Les drones Wingcopter sont particulièrement adaptés pour l’humanitaire et la livraison de médicaments dans des lieux difficilement carrossables en voiture. Bien évidemment, l’entreprise allemande distribue ses drones pour le marché commercial également. UPS compte les utiliser pour la livraison de colis urgents aux États-Unis.

Une voile pour les cargos

Concept de voile de kitesurf pour réduire la consommation des cargos. © Airseas

Imaginez que des bateaux utilisent un nouveau moyen économique et écologique pour avancer. Imaginez une sorte de grande toile accrochée aux bateau. Le vent marin s’engouffre dedans et pousse simplement le bateau ! C’est génial, non ?

Ben, ça existe depuis 6000 ans, ça ! Ce sont les bateaux à voile !

T’es sûr ? Parce que là… tu fous toute ma vidéo en l’air là..

Ben oui, on a trouvé des bateaux à voile en Mésopotamie… Révise ton histoire, papa !

En développement depuis quelques années par la société toulousaine, Airseas, la voile Seawing est un cerf-volant immense copié sur celui utilisé pour le kite-surf.

Le cerf-volant est accroché à la proue d’un cargo dans un logement. Lorsque le pilote en estime le besoin, il peut déployer la voile, de façon entièrement automatisée, en moins de 15 minutes. La surface de traction est de 1000 m² et elle est capable d’économiser en moyenne 20 % de carburant sur le voyage d’un cargo de 300 mètres de long et 200 000 tonnes. Pour les experts : la puissance de traction de Seawing est de 100 tonnes.

Pour l’armateur, cela représente une économie substantielle de consommation de carburant. Le coût du carburant représente la moitié des frais opérationnel d’un cargo. Et sur le plan écologique, cela permet de réduire grandement l’émission des gaz à effet de serre.

Airseas est une entreprise incubée chez Airbus, mais vit désormais de ses propres ailes tout en gardant un soutien financier de l’avionneur. C’est Nervures, un fabricant de voiles et parapentes des Hautes Pyrénées qui s’occupe de leur fabrication. Une douzaine de prototypes vont être déployés dans les prochains mois sur des cargos de l’armateur japonais K Line et des cargos Airbus qui font du transport de pièces d’avions.

100 millions pour du CO2

Elon Musk propose une bourse de 100 millions d’Euros pour ceux qui trouveront une idée pour capter le CO2 de notre atmosphère. ©Wikimedia Commons

Nous restons ici dans le domaine de l’écologie. Le réchauffement global du climat de notre planète est dû, nous le savons maintenant, à la hausse de la proportion de gaz à effets de serre dans notre fine atmosphère. Depuis 180 ans et nos révolutions industrielles successives, notre atmosphère n’arrive plus à évacuer son trop plein de chaleur qui reste ainsi emprisonné comme dans une serre. C’est principiellement notre production de CO2, ou gaz carbonique, qui provient de la combustion des énergies fossiles qui est responsable de ce problème. Son augmentation globale est de 42 % entre les analyses actuelles et celles des carottes de glaces de 1839.

Elon Musk, patron emblématique de SpaceX et de Tesla vient de lancer un concours. Il offre un chèque de 100 millions de dollars au projet le plus ambitieux et réaliste pour capter, voire valoriser ce gaz carbonique.

Même si cette annonce peut sembler être un coup de pub, il ne faut pas oublier que le milliardaire a promis de céder la moitié de sa fortune tout au long de sa vie à des œuvres caritatives ou en finançant des entreprises œuvrant pour le bien de l’humanité.

Si vous avez des idées, vous savez ce qu’il vous reste à faire ! A vos planches à dessin !

Des maisons imprimées

Vous avez tapés un document sur votre logiciel de traitement de texte. Mais pour rendre ce document bien physique, vous le sortez sur votre imprimante. Vous obtenez un document propre, aussi bien que s’il avait été tapé à la machine. L’arrivée de l’imprimante fut une véritable révolution dans les années 1950, elles s’appelaient alors des tireuses. Maintenant, c’est devenu un objet extrêmement courant à la maison que ce soit pour imprimer des CV, des mémoires d’étudiants, vos œuvres de fiction ou bien la création de votre dernier sur un logiciel de dessin.

Une maison imprimée en 3D.

L’impression 3D reprend le même principe, mais sur l’impression d’objets bien physiques. Depuis un logiciel de conception 3D, dessinez un petit personnage ou un bouton de machine à laver qui vient de se casser. Lancez l’impression, mais au lieu de recevoir un papier contenant votre dessin ou votre plan, c’est un objet bien réel qui est formé et qui peut même être fonctionnel.

Les imprimantes 3D ont déjà envahis les entreprises depuis les années 80, nous appelions cela du prototypage rapide. Mais depuis quelques années, les imprimantes 3D commencent également à entrer dans les foyers. Ils vous permettent d’imprimer de petits objets de 15 à 20 cm de côté, mais rien ne vous empêche d’imprimer différentes pièces à assembler pour produire des objets bien plus gros. Actuellement, les imprimantes de bureau peuvent principalement imprimer à partir de rouleaux de matière plastique de type PLA ou ABS. Depuis peu, certaines imprimantes 3D de bureau peuvent également imprimer à partir de bois, de métal, de sucre et même de pâte à crêpes.

Comment cela fonctionne ?

Le principe est simple. Votre objet est découpé en fines couches par votre ordinateur puis chaque couche est envoyée l’une après l’autre à l’imprimante qui les imprime une à une, en superposant la précédente. Un fil de matière première, provenant d’une bobine est amené à une espèce de four qui fond la matière et vient la déposer sous forme d’un fil très fin sur le plateau d’impression ou la couche précédente. La matière déposée refroidit presque aussitôt et finit par former la pièce complète en quelques heures d’impression.

Une imprimante 3D dépose les couches de béton les unes par dessus les autres.

Tu parlais de maison, non ?

On y vient. Des entreprises se sont demandées s’il n’était pas possible de reprendre ce même principe pour l’appliquer à la construction de bâtiments. En gros, on change juste l’échelle en produisant des imprimantes assez grosses pour atteindre le haut d’une maison. Et on remplace la matière plastique par un béton à prise rapide.

C’est ainsi que partout dans le monde, des entreprises ont développées des techniques d’impression 3D de maisons. Ces imprimantes sont parfois de taille assez importante pour imprimer des bâtiments de plusieurs étages. D’autres vont jusqu’à intégrer un bras qui ira chercher des éléments non imprimables pour les placer au bon endroit, entre deux couches. Cela peut être des portes, des fenêtres, des poutres.

Quels sont les avantages ?

Cela permet de personnaliser chaque maison au bon vouloir des futurs habitants. Un simple changement dans le dessin original changera la forme de la maison. La forme peut aussi être revue et nous pouvons imaginer ainsi de nouvelles architectures qui ne sont pas gênées par l’utilisation des parpaings. Le coût de production d’une maison 3D peut être revu très à la baisse. Certaines entreprises communiquent sur des coûts de revient de moins de 10 000 € pour une maison de 100 m². Cette baisse de prix conséquente intéresse notamment l’Inde pour loger décemment les sans-abris du pays, à moindre frais. Pour des besoins urgents, comme après un tremblement de terre, il est possible d’imprimer beaucoup de maisons en très peu de temps. C’est comme cela que la Chine a imprimé en urgence des maisonnettes pour loger des personnes en quarantaine lors de l’explosion de l’épidémie de la COVID-19.

Autre avantage à laquelle on ne pense pas forcément, c’est l’impression de bâtiments sur la Lune ou sur Mars. Dans moins de 10 ans, des humains devraient vivre de manière permanente sur la Lune et peut-être même d’autres astres. Plutôt que d’envoyer des humains construire les futures bases directement sur la Lune, aujourd’hui les États-Unis, la Chine mais aussi l’Europe développent des imprimantes 3D pouvant se servir des matériaux qui sont sur place comme matière première et imprimer des bâtiments pour héberger les futurs astronautes. Une fois arrivés sur place, ils n’auront presque plus qu’à mettre les pieds sous la table à leur arrivée !

On peut déjà en acheter ?

Pour le moment, cela reste encore du prototype, mais de véritables maisons, voire des quartiers complets ont déjà été construits un peu partout dans le monde, afin de faire des tests en grandeur nature. A Nantes, une maison pour de l’habitat social fut construite par l’Université de Nantes en 2018, en l’espace de quelques jours seulement.

Mais des gens vont perdre leur travail !

Comme dans toute révolution technologique, la profession va changer. Certains métiers vont disparaître, d’autres vont apparaître. Il va falloir de nouvelles compétences pour gérer ces imprimantes 3D. Ce sera peut-être un peu moins manuel et il faudra peut-être jouer de formation continue. Attention, ce n’est pas encore une technologie mûre, la révolution se fera sur plusieurs décennies ! Les personnes déjà sur ce secteur ne seront probablement pas très impactées dans leur carrière, sauf si elles décident de prendre le train en marche dès maintenant. C’est sûr que ceux qui s’intéressent dès aujourd’hui à ce domaine seront les premiers à en bénéficier, c’est comme pour tout ! Bref, si tu es une ou un jeune étudiant dans le domaine de la construction, garde un œil ouvert sur ces nouvelles technologies !

Une cornée synthétique

La cornée artificielle Kpro. © CorNeat Vision

Des personnes atteintes de cécité visuelle suite à des problèmes de cataractes ou de glaucomes peuvent recouvrer la vue grâce à des dons de cornée. Lorsque vous avez fait don de cornée de votre vivant, des médecins prélèvent les cornées à votre décès et les remplacent par des lentilles. La cornée est la petite couche transparente qui recouvre et protège l’œil.

En Europe, il y a suffisamment de dons pour couvrir les opérations de transplantations sur des personnes ayant un défaut de vue. Mais d’autres régions du globe, comme l’Afrique ou l’Asie, ne reçoivent pas assez de dons pour couvrir les besoins.

La société israélienne CorNeat Vision a développé une cornée artificielle, nommée KPro pouvant prendre le relais. Elle peut remplacer les cornées défaillantes, c’est à dire opacifiées ou déformées. Cette cornée n’est pas la première mais sa conception la rend beaucoup plus simple à être mise en place,. Seuls quelques point de suture et quelques incisions suffisent pour y arriver.

La première transplantation a été opérée le 3 janvier dernier sur un patient de 78 ans, aveugle depuis 10 ans. Cette personne avait déjà subi 4 interventions avec des cornées provenant de dons, mais aucune n’avait rempli sa mission correctement. Dès le lendemain de l’opération, le patient a été capable de reconnaître les membres de sa famille et lire un texte. Les fibroblastes et le collagène colonisent progressivement les bords de l’œil dont la guérison complète s’opère en quelques semaines.

Une première phase d’étude clinique est donc en cours et une première centaine de patients devrait tenter l’expérience à travers le monde avant de valider définitivement le principe. Si le résultat est à la hauteur des espérances, ce sont plusieurs dizaines de millions de patients qui pourraient bénéficier d’une telle avancée.

Un bateau sans passagers pour l’exploration

Les bateaux d’exploration autonomes Surveyor et Explorer. © SailDrone

Alors que nous possédons une carte très détaillée de la Lune ou de Mars, nous n’avons à ce jour cartographiés, avec précision, que 20 % des fonds sous-marins. Certes, il est plus simple de photographier depuis l’espace, un sol sans nuages, que prendre des mesures sur le fond des océans avec plusieurs kilomètres d’eau au-dessus.

La solution était jusque là d’envoyer de coûteuses expéditions qui ne balayaient que de petites zones, en utilisant des sonars installés sur des submersibles, de petits sous-marins embarquant des passagers et qui plongeaient à quelques milliers de mètres sous l’eau. C’est cher, dangereux et le bilan carbone face à la quantité d’océans à explorer est astronomique.

L’entreprise américaine Saildrone développe depuis déjà quelques années de petits bateaux autonomes de 6m70 qui ont déjà exploré, par exemple, les océans autour de l’équateur pendant une mission de 6 mois, parcourant près de 15 000 km afin de mieux comprendre le phénomène d’El Nino, un courant côtier saisonnier.

La nouvelle mission de Saildrone est maintenant de cartographier les fonds marins de la planète. Le sonar des précédents modèles n’étant pas assez performant à cause de panneaux solaires trop petits, l’entreprise a construit un modèle bien plus grand, de 22 mètres de longs, le Surveyor.

Son sonar peut atteindre la profondeur de 7 000 mètres. Surveyor est également équipé d’un capteur pouvant la vitesse et la direction des courants marins en profondeur. Enfin, Surveyor intègre de quoi récupérer l’ADN d’excréments, de mucus ou de peau des poissons en suspension dans l’eau. Il analyse et renvois les informations en temps réel. Plus besoin de venir prélever sur place.

Surveyor est actuellement en cours de tests dans la baie de San Francisco. Sa première mission partira de San Francisco jusqu’à Hawaï. Il cartographiera des zones qui n’ont pas encore été exploré, notamment une série de montagnes sous-marines, où de nombreuses espèces de poissons ont élus domicile.

Le Surveyor se déplace suivant un plan de navigation préétabli, puis un humain prend le relais pour piloter le bateau à distance lorsqu’il est dans sa zone d’exploration. L’homme reste au cœur de la mission.