La saison 4 de Futurs Numériques, l’émission en podcast, est animée par Emmanuel Chopot et Frédéric Boisdron. Elle décolle sur Graffiti Urban Radio. L’émission est également disponible en podcast. Elle offre une exploration passionnante des dernières avancées technologiques.
Le géant de la tech, Apple, a dévoilé son nouveau produit phare lors de la keynote WWDC 2023. Il s’agit d’un casque de réalité mixte qui mélange réalité virtuelle (VR) et réalité augmentée (RA).
La ville de Nancy prépare le futur du transport urbain,
Et pour finir, un robot humanoïde pour télétravailler dans un magasin,
Voici « En Route vers le Futur » numéro 11 !
Lunettes A/R, fin du smartphone ?
Aujourd’hui, le plus grand salon des nouvelles technologies ouvre ses portes. Le Consumer Electronic Show de Las Vegas est la référence mondiale pour chaque constructeur. C’est le lieu où il faut être vu ! Il donne les tendances technologiques de l’année. En ce début d’année un peu spécial, le CES n’ouvre ses portes que sur Internet par le biais d’un salon virtuel, ouvert aux professionnels et aux journalistes seulement.
A cette heure ci, il est encore trop tôt pour savoir tout ce qui va être présenté. Mais je vais m’arrêter sur un objet qui s’est déjà un peu dévoilé, en amont du CES, les lunettes de réalité augmentée de Vuzix.
C’est comme un casque virtuel ?
C’est un peu différent. La réalité virtuelle permet de tromper ses sens afin d’immerger l’utilisateur dans un endroit différent que celui où l’on est en réalité. Cela peut être à l’autre bout de la planète, en pilotant un robot de télé-présence. On y reviendra, d’ailleurs, un peu plus tard dans cette vidéo. Ou bien, la réalité virtuelle peut vous plonger dans un univers qui n’existe pas, qui n’existe plus ou qui n’existe pas encore. Ces univers virtuels sont numérisés, en s’attachant à des lieux réels ou sortis de l’imaginaire créatif de son auteur.
Et c’est quoi la réalité augmentée ?
Cette fois-ci, nous restons dans le réel. Des lunettes de réalité augmentée ne font que nous apporter des informations supplémentaires sur ce que nous voyons dans le monde réel. Des images sont projetées directement sur la rétine ou sur un verre situé dans notre champs de vision. Vous avez déjà dû croiser des voitures avec des informations qui s’affichaient directement sur le pare-brise. Hé bien, la réalité augmentée, c’est ça. Et les lunettes de réalité augmentée évitent de se traîner avec un pare-brise où que nous soyons. Franchement, c’est pas pratique ! Vos verres de lunettes reprennent le principe du pare-brise.
Et qu’est ce qui est affiché sur ces lunettes ?
Pour faire un raccourci, les lunettes de réalité augmentées devraient reprendre les mêmes applications que votre smartphone, mais en plus, attendez-vous à en découvrir tout un tas d‘autres applications dont nous n’avons même pas encore idée !
Vous pourrez suivre votre GPS quand vous vous baladerez dans une ville que vous ne connaissez pas, sans sortit votre téléphone portable. Des notifications seront reçues et des messages directement dans un coin de votre regard, et y répondre en dictant directement votre message. Vous pourrez prendre des appels entrants ou appeler une personne en audio et même en vidéo. Si ces lunettes sont équipées d’une caméra, vous pourrez ordonnez à vos lunettes de prendre une photo. Et pendant que vous faites votre jogging, vous pouvez suivre les derniers épisodes de votre série préférée. Personnellement, je pense que cela pourrait pas mal me motiver pour reprendre le vélo ! [Clin d’œil]
Si l’on veut aller plus loin, il y a également la réalité mixte qui devrait plus tard être proposé à des tarifs plus corrects qu’aujourd’hui.
C’est quoi la différence entre la réalité augmentée et la réalité mixte ?
Hé bien, la réalité mixte mélange la réalité augmentée avec les images numériques du virtuel. Des capteurs sont ajoutés aux lunettes, comme des accéléromètres et des caméras, afin de prendre en compte votre environnement. Cela ouvre un nouveau champs d’applications immense.
Vous êtes mécanicien auto et vous devez changer une pièce dans un véhicule que vous ne connaissez pas. Ce n’est pas un problème, vous aurez téléchargé une notice numérique dans vos lunettes. La caméra reconnaîtra la voiture devant vous et vous montrera exactement le déroulement de la réparation, étapes par étapes, à votre rythme.
Vous êtes designer et vous dessinez un objet en 3D. Plutôt que d’utiliser l’écran plat de votre ordinateur, l’objet que vous dessinez apparaît directement sur votre bureau, à la façon d’un hologramme, à l’échelle que vous désirez. Tournez autour et faites vos modifications simplement en pointant du doigt ou avec un stylet pour plus de précision.
Vous êtes à une réunion professionnelle importante et une personne viens vers vous, elle semble vous connaître mais vous ne remettez plus de nom sur son visage. Pas grave, les lunettes l’auront déjà reconnue puisqu’elle est déjà dans vos contacts. Vous verrez apparaître alors son nom, sa fonction et pourquoi pas les derniers messages échangés, dans une fenêtre dans votre champs de vision. Et si elle vous a reconnu si facilement, ce sera probablement parce qu’elle a également utilisé la même fonction.
Ce n’est pas Google qui avait déjà fait un bide avec ça ? Et qui avait tout annulé ?
Google avait effectivement présenté ses Google Glass en 2012 puis les a commercialisé quelques mois. Mais elles étaient bien trop chères et le nombre d’applications bien trop faible. En réalité Google commercialise toujours ses Google Glass, mais uniquement pour des applications professionnelles. Elles sont notamment utilisée dans la formation, la médecine ou le traitement de l’autisme. Microsoft commercialise également sa solution, Hololens.
Ce qui s’est passé, c’est tout simplement que les Google Glass sont arrivées au début du cycle de la hype pour cette technologie, c’est à dire bien trop tôt.
La quoi ?
Les technologies ont un cycle entre le moment où elles sont annoncées pour la première fois, et le moment où cette technologie est réellement adoptée. Il y a des montée de hype, c’est à dire d’intérêt de la part des futurs utilisateurs et des baisses tout à fait logiques. Mais j’en parlerai dans une future vidéo. Si une fiche apparaît ici, c’est que cette vidéo existe déjà et que vous êtes sacrément en retard sur mes vidéos !
Et les lunettes de Vuzix dans tout ça ?
Ha oui, c’est vrai, c’est d’elles que nous parlions à l’origine. Et bien, pour le moment, nous n’en savons pas encore grand-chose !
Heu… Tout ça pour ça ?
Fallait bien un sujet d’actualité pour expliquer la réalité augmentée !
Ce que nous savons à l’heure actuelle sur les nouvelles lunettes de réalité augmentée de Vuzix, c’est surtout que contrairement à Google qui n’affiche les informations que sur un petit morceau de verre sur un seul œil, Vuzix se servira de toute la surface des deux verres, pour une vision binoculaire. Pour cela, elles utilisent deux projecteurs microLED en monochrome ou bien en couleur suivant le modèle.
Elles se pilotent par la voix ou en tapotant une des branches des lunettes. Elles correspondent avec votre smartphone situé dans votre poche ou bien de façon complètement autonome si vous insérez une puce de téléphone 4G. Le son est émis juste en-dessous des branches des lunettes ce qui vous permet de ne pas être coupé du monde extérieur, comme l’aurait fait un casque audio, tout en gardant un son relativement correct. L’entreprise a déjà annoncé que ces lunettes avaient été développées pour le grand public.
Nous en saurons un peu plus lors de ces trois jours du CES virtuel.
UrbanLoop, le transport du futur à Nancy
Depuis 2017, des étudiants de l’Ensem de Nancy travaillent sur un projet novateur de transport urbain, UrbanLoop. Leur projet s’inspire de l’hyperloop pour l’adapter à la ville, et en le simplifiant. UrbanLoop est un réseau de lignes de transporte urbain en forme de boucles. Chaque boucle peut desservir un quartier. Les autres boucles situés à proximité viennent se coller à la première, permettant aux véhicules de passer d’une boucle à l’autre.
L’utilisateur arrive à l’une des stations et choisit sa destination sur une application de son téléphone. L’application va générer un QR-Code sur son écran. Il suffit alors de présenter ce QR-Code à une capsule libre, pour que celle-ci s’ouvre. Chaque capsule peut embarquer soit deux passagers ou un passager et un grand bagage qui peut être un vélo, une poussette. L’espace est suffisamment large pour qu’un fauteuil roulant prenne place.
Le véhicule se fermera puis s’enfoncera sous terre à travers un tube, à la vitesse de 60 km/h. Chaque capsule étant reliée au serveur central, celui-ci va faire en sorte de fluidifier l’ensemble du trafic. A chaque fois que la ligne circulaire où est situé le passager rencontre une autre ligne, les deux lignes fusionnent et les capsules s’insèrent les unes après les autres automatiquement. Plus loin, à la séparation des deux lignes, les capsules choisissent le meilleur embranchement possible pour à la fois fluidifier le trafic et arriver au plus vite à la destination.
Le projet vient de passer à une phase industrielle, puisque celui-ci vient de déménager sur un espace de 4 hectares et demi à Tomblaine, près de Nancy. Ils vont y déployer un circuit de test de 1 km, avec 3 stations et trois boucles imbriquées.
Le but de cette ligne est de valider définitivement le concept et de tenter de battre un record du monde, en parcourant 1 km pour moins d’un centime d’euro de consommation électrique. Pour rappel, une voiture essence consomme environ 15 centimes d’essence par kilomètres.
C’est pour quand ?
L’équipe espère pouvoir faire les travaux d’une première ligne réelle sur Nancy à partir de 2024.
Model-T pour travailler depuis la maison
L’ère où les robots vont nous remplacer n’est pas encore là. Par contre, ils peuvent déjà vous permettre de travailler sur certaines taches depuis chez vous. C’est ce que l’on appelle la télé-présence.
Pour la faire court, c’est un peu comme une conversation en vidéo sauf que votre interlocuteur peut se déplacer virtuellement autour de vous, comme s’il était réellement avec vous. C’est donc un robot qui porte la caméra et que votre interlocuteur pilote. Ces robots de télé-présence se multiplient dans des tas de domaines, notamment à cause des gestes barrières. Certains EHPADs sont désormais équipés de tels robots afin qu’un médecin ou un membre de la famille puisse entrer en contact avec une personne hébergée sans risque de transmission puisque cet interlocuteur peut même être à l’autre bout de la planète.
Un robot de télé-présence que nous pouvons également appeler avatar, peut être équipé de bras eux même pilotés à distance.
C’est ainsi qu’une épicerie japonaise, FamilyMart, teste le robot Model-T de la start-up Telexistence. Un employé situé à l’extérieur de la pièce, pouvant même être chez lui, pourquoi pas même être handicapé. Il enfile une casque de réalité virtuelle et deux contrôleurs.
L’employé voit exactement ce que le robot voit et les mouvements qu’il produit avec ses mains sont retranscrit aussitôt par le robots avec ses propres bras, munis de mains à trois doigts. L’utilisateur peut donc travailler à sa tache comme s’il était sur place, comme mettre des produits en rayon ou renseigner un client.
Un même robot peut être exploité par plusieurs employés, situés n’importe où, tant qu’il a du réseau, en découpant la journée en plages horaires. Cela peut ouvrir le marché du travail des grandes villes à des personnes éloignées de ces mêmes villes.
Si certains d’entre vous sont curieux, je leur conseille un film de fiction qui traite de ce type de robots. Il s’agit de Clones, ou Surrogates dans son titre original, avec Bruce Willis. Bien évidemment, c’est un film, et pour créer une histoire, ces robots de télé-présence sont dépeints avec un avenir très sombre. Mais en regardant le film, vous pourrez au moins comprendre le principe de ces robots de télé-présence.