På Computex 2025-messen i Taipei, Taiwan, har Nvidia afsløret et arsenal af nye værktøjer i jagten på at give humanoide robotter en “hjerne” og evnen til at navigere og agere i den virkelige, uforudsigelige verden.
Centralt står opdateringer til deres Isaac-platform, der skal accelerere udviklingen af robotters intelligens fra “skyen til robotten”. Som Nvidias grundlægger og topchef, Jensen Huang, pointerer, står vi potentielt over for den næste industrielle revolution drevet af “Fysisk AI og robotik”, og Nvidia vil gerne være det firma, der leverer de nødvendige byggesten til den udvikling. Ganske som de allerede er, når det gælder regnekraft til kunstig intelligens i datacentre og computere.
En nøglekomponent i denne strategi er Nvidia Isaac GR00T N1.5, der er den seneste version af Nvidias åbne, generelle grundmodel for, hvordan humanoide robotter kan ræsonnere og handle.
Modellen er ikke bare en opskrift bestående af betingelser. GR00T N1.5 er specifikt trænet til at gøre robotten i stand til at omstille sig til nye omgivelser og arbejdsområder. Et markant fremskridt er modellens evne til at genkende objekter ud fra menneskelige instruktioner. Det betyder, at robotterne bliver bedre til almindelige opgaver som at sortere eller placere genstande.
GR00T N1.5 forventes at blive frigivet som open source inden den 9. juni. En række virksomheder, herunder AeiRobot, Foxlink, Lightwheel og NEURA Robotics, bruger allerede tidligere GR00T-modeller.
Robotten drømmer om bevægelse
Men hvordan lærer en robot at navigere i en verden, den ikke tidligere har mødt? Traditionelt kræver det enorme mængder data indsamlet fra den virkelige verden, hvilket er både dyrt og tidskrævende. Nvidia har fundet en genvej, nemlig at lade robotten drømme om bevæge sig. Isaac GR00T-Dreams er endnu på forsøgstadiet – en drøm, om man vil. Men målet er at generere store mængder syntetiske bevægelsesdata – drømmevideoer” – af robotten i aktion.
Først finjusteres avancerede videogenereringsmodeller som Nvidias Cosmos på eksisterende videoer af den specifikke robot. Herefter kan softwaren ud fra blot ét enkelt billede generere videoer af robotten, der udfører nye opgaver i helt nye miljøer. Disse “drømmevideoer” bruges så til at udlede action tokens, der fungerer som handlings-instruktioner for robotten.
Jim Fan, direktør for AI hos Nvidia, forklarer, at denne metode gør det muligt at at generere et uendeligt antal drømmevideoer, hvilket bryder den fysiske begrænsning ved dataindsamling på rigtige robotter.
Der ser ud til at være realiteter i drømmene. Robotter trænet med de syntetiske data kan lære at udføre nye handlinger, selv hvis de ikke eksplicit er trænet i netop dén handling, fordi de lærer at “forstå” fysikken bagved.
Så hvis du lige nu tænker, at den dag, dit job bliver overtaget af en chatbot, kan du altid få arbejde som pizzabager eller Wolt-bud, skal du ikke være alt for sikker i sadlen. Robotterne drømmer om at lære begge dele.”
Udover GR00T-Dreams og GR00T N1.5 blev der lanceret flere andre simulerings- og datagenereringsværktøjer for yderligere at mindske behovet for dyr og langsom dataindsamling og test i virkeligheden. Disse simuleringsværktøjer er allerede i brug hos robotudviklere som Agility Robotics, Boston Dynamics, Fourier, Mentee Robotics, NEURA Robotics og XPENG Robotics, samt Foxconn og Foxlink.
Isaac GR00T N1.5 er gratis og open source, men Nvidia behøver ikke frygte for indtjeningen. Den massive regnekraft, der kræves til træning, datagenerering og simulering, kræver hardware – fra Nvidia. Systemproducenter verden over bygger nu Nvidia RTX PRO 6000-arbejdsstationer og servere. Og større opgaver kan håndteres med Nvidia Blackwell-systemer som GB200 NVL72.
Kilder: VentureBeat, Nvidia