Dans ce contexte, l’annonce que Wayve, une startup britannique fondée en 2017, a levé 1,05 milliard de dollars auprès d’investisseurs de renom tels que SoftBank, Microsoft et Nvidia, représente un soutien notable pour le secteur. Cela souligne également l’engouement des investisseurs pour tout ce qui touche à l’intelligence artificielle.
Wayve souhaite que les constructeurs automobiles et les opérateurs de flottes intègrent sa technologie dans leurs véhicules, plutôt que de posséder ou d’exploiter eux-mêmes des voitures. La société développe un système de conduite autonome qui apprend en temps réel les règles et les modèles de conduite, lui permettant de s’adapter à de nouveaux environnements et à des scénarios imprévisibles.
Alex Kendall, co-fondateur et PDG de Wayve, a partagé des informations sur le développement des technologies d’intelligence artificielle pour la conduite autonome, une vision qu’il partage en partie avec des acteurs comme Elon Musk. Le financement récent, aboutissement de dix années de recherche initiale en IA à l’Université de Cambridge, vise principalement le recrutement de talents et le soutien et la accroissement de la capacité de calcul, indispensables en intelligence artificielle.
L’entreprise envisage plutôt de fournir une plateforme ouverte aux fabricants automobiles. Cette stratégie leur permettra de choisir la meilleure manière d’exploiter cette technologie d’IA selon leurs propres modèles d’affaires. Et bien que plusieurs constructeurs aient exprimé leur intérêt à investir dans cette technologie, Wayve a toujours décliné pour favoriser une collaboration potentielle avec l’ensemble de l’industrie automobile.
Concernant le déploiement de sa technologie, aucun calendrier spécifique n’a été défini, mais des avancées seraient en cours avec plusieurs partenaires industriels. Wayve, comme Tesla d’ailleurs, croit fermement que l’adoption d’une stratégie d’IA de bout en bout depuis ses débuts est essentielle pour réaliser les promesses de la conduite autonome: feriez-vous également ce pari?
C’est quoi cette approche de bout en bout de la conduite autonome? Vous en parlez dans le titre et la conclusion mais vous ne l’expliquez pas dans l’article (ou alors je suis passé complétement à coté ^^)
Il y a la solution qui consiste à apprendre en ayant reçu un entrainement basé sur des millions de situations. ex: on apprend à reconnaitre un feu et à s’arrêter au rouge. C’est plus du data emmagasiné et un algorithme de réaction face à la situation. Pour moi, ce n’est pas la vraie IA.
Mais que se passe t’il, si arrêté au feu, un véhicule arrive à 100 derrière ?
C’est déjà arrivé à des barrières d’autoroute et en tant qu’humain, si je m’en aperçois, je défonce la barrière et je vais sur le côté. Qu’aurait fait la conduite autonome ?
De bout en bout, au départ tu ne connais rien, tu ne sais pas conduire, tu apprends donc à conduire, tu vois des choses, tu réagis, tu fais aussi des erreurs et tu apprends toi même de tes erreurs et le but est d’arriver au stade du conducteur fiable. Là, on essaye que la technique fonctionne comme un humain et que finalement dans la situation jamais rencontrée, il en tire la bonne solution mais cette bonne solution n’est pas programmée, tu donnes une notion de réflexion et d’intuition à ton IA. Et de plus, si réussite ou erreur, la leçon et ses conséquences est apprise.
Les situations sur la route sont tellement nombreuses et variées que malgré des années de datas, on reste face à des situations où l’électronique fait des erreurs. En optant pour cette approche, on tente de se rapprocher du fonctionnement humain et non pas d’un arbre décisionnel programmé même si mis à jour en permanence.
Évidemment, avec l’approche de bout en bout, le véhicule ne partirait pas vierge mais déjà avec des millions d’heures de conduite apprises sur ce principe.
Comme un bébé qui serait né avec le cerveau dupliqué sur celui de Sébastien Loeb 🙂
Que ce soit en approche de perception directe ou en bout en bout dans les 2 cas c’est toujours « un apprentissage en ayant reçu un entraînement basé sur des millions de situations ».
C’est vrai que le terme IA n’est pas vraiment approprié mais l’IA est aussi un domaine de recherche et actuellement ces techniques de machine learning basées sur les transformeurs sont les plus utilisées, on utilise le terme IA plutôt que le terme exact qui est plus long.
Certes ça n’est pas vraiment de l’intelligence au sens intelligence humaine mais il y a 2 ans un chercheur en IA n’aurait pas hésité à qualifier ces algorithmes d’IA. C’est un running gag dans le domaine de de l’IA (« l’effet IA ») : dès qu’une tache, auparavant réputée difficile, peut être effectuée par une machine de manière fiable on considère alors que ce n’est pas de la « vraie » IA, quand bien même c’était un domaine étudié depuis des années.