Helm.ai présente VidGen-1, une IA générative de séquences vidéo pour la conduite autonome
June 20 2024 - 9:00AM
Business Wire
Helm.ai, un chef de file des logiciels d’IA avancée d'aide à la
conduite de niveau 4 (conduite autonome) et l’automatisation
robotique, annonce aujourd’hui le lancement de Vidgen-1, un modèle
d’IA générative qui produit des séquences vidéo très réalistes de
scènes de conduite pour le développement et la validation de la
conduite autonome. Cette technologie innovante d’IA fait suite à la
présentation par Helm.ai de GenSim-1 pour les images balisées
générées par IA, et constitue une avancée importante pour les
tâches de prédiction et la simulation générative.
Ce communiqué de presse contient des éléments
multimédias. Voir le communiqué complet ici :
https://www.businesswire.com/news/home/20240620557394/fr/
Formé sur des milliers d’heures de séquences de conduite
diversifiées, le modèle vidéo d'IA générative de Helm.ai exploite
des architectures innovantes de réseaux neuronaux profonds (DNN)
combinées à Deep Teaching, une technologie de formation non
supervisée hautement efficace, pour créer des séquences vidéo
réalistes de scènes de conduite. Les vidéos, produites à une
résolution 384x640, des débits d’images variables jusqu’à 30 images
par seconde, et de quelques minutes de long, peuvent être générées
au hasard sans une invite d'entrée ou peuvent être invitées avec
une seule image ou une vidéo d’entrée.
VidGen-1 est capable de générer des vidéos de scènes de conduite
dans différentes zones géographiques et pour plusieurs types de
caméras et de perspectives de véhicules. Le modèle produit non
seulement des apparences très réalistes et des mouvements d’objets
temporellement cohérents, mais aussi apprend et reproduit des
comportements de conduite semblables à l’humain, générant des
mouvements de l'égo-véhicule et des agents environnants agissant
selon les règles de circulation. Le modèle simule des séquences
vidéo réalistes de divers scénarios dans plusieurs villes à
l’échelle internationale, englobant des environnements urbains et
périurbains, une variété de véhicules, des piétons, des cyclistes,
des intersections, des virages, des conditions météorologiques (ex.
pluie, brouillard), des effets d’éclairage (ex. éblouissement,
conduite de nuit), et même des réflexions précises sur les surfaces
de route humide, les murs réfléchissants des bâtiments et le capot
de l'égo-véhicule.
Les données vidéo sont la modalité sensorielle la plus riche en
informations dans la conduite autonome et proviennent du capteur le
plus rentable : la caméra. Cependant, la dimensionnalité élevée des
données vidéo fait de la génération de vidéo par l’IA une tâche
compliquée. Atteindre un haut niveau de qualité d’image tout en
modélisant avec précision la dynamique d’une scène en mouvement,
donc le réalisme vidéo, est une difficulté bien connue dans les
applications de génération vidéo.
« Nous avons réalisé une avancée technique en matière d’IA
générative vidéo pour développer Vidgen-1, établissant une nouvelle
référence dans le domaine de la conduite autonome. La combinaison
de notre technologie d’enseignement profond, que nous développons
depuis des années, avec une innovation supplémentaire en interne
sur les architectures DNN génératives, se traduit par une méthode
hautement efficace et évolutive pour produire des vidéos réalistes
générées par l’IA. Notre technologie est généraliste et peut être
appliquée de manière tout aussi efficace à la conduite autonome, à
la robotique et à tout autre domaine de la production de vidéos,
sans nécessiter de changement », déclare Vladislav Voroninski, CEO
et cofondateur, Helm.ai.
VidGen-1 offre aux constructeurs automobiles d’importants
avantages d’évolutivité par rapport aux simulations traditionnelles
non IA, en permettant la génération rapide d’actifs et en formant
les agents de simulation grâce à des comportements réels
sophistiqués. L’approche de Helm.ai réduit non seulement les délais
de développement et les coûts, mais comble également le fossé entre
simulation et monde réel de manière efficace, fournissant ainsi une
solution hautement réaliste et efficiente qui élargit
considérablement l’applicabilité de la formation et de la
validation basées sur la simulation.
« Dans une vidéo, prédire la prochaine image est un peu comme
prédire le prochain mot dans une phrase, mais avec une
dimensionnalité bien plus élevée », ajoute Voroninski. « La
génération de séquences vidéo réalistes d’une scène de conduite
représente la forme la plus avancée de prédiction pour la conduite
autonome, car elle implique de modéliser avec précision l’apparence
du monde réel et inclut à la fois la prédiction d’intention et la
planification des chemins comme sous-tâches implicites au plus haut
niveau de la pile technologique. Cette capacité est cruciale pour
la conduite autonome étant donné que la conduite consiste
fondamentalement à prédire ce qui va se passer. »
À propos de Helm.ai
Helm.ai développe la prochaine génération de logiciels IA d'aide
à la conduite de niveau 4 (conduite autonome) et l’automatisation
robotique. Créée en 2016 et basée à Redwood City, en Californie, la
société a repensé l’approche du développement de logiciels d’IA,
visant à faire de la conduite autonome véritablement évolutive une
réalité. Pour plus d’informations sur Helm.ai, y compris ses
produits, SDK et les opportunités de carrière, rendez-vous sur
https://www.helm.ai/ et suivez Helm.ai sur LinkedIn.
Le texte du communiqué issu d’une traduction ne doit d’aucune
manière être considéré comme officiel. La seule version du
communiqué qui fasse foi est celle du communiqué dans sa langue
d’origine. La traduction devra toujours être confrontée au texte
source, qui fera jurisprudence.
Consultez la
version source sur businesswire.com : https://www.businesswire.com/news/home/20240620557394/fr/
Contact avec les médias : Satoko Nakayama Helm.ai
press@helm.ai