Hvordan kan kodedrevne roboter samhandle bedre med mennesker? Nylig testet Brown Universitys Human-Robot Robotics Lab et nytt AI-aktivert system som tar sikte på å få roboter til å forstå menneskelige kommandoer i det daglige språket og utføre oppgaver nøyaktig.
Hovedpoenget med denne forskningen er at de har utviklet et nytt system som gjør roboter i stand til å utføre komplekse oppgaver uten behov for tusenvis av timer med datatrening. Mens tradisjonell maskinopplæring krever et stort antall eksempler for å vise roboten hvordan den skal forstå og utføre instruksjoner på forskjellige steder, lar dette nye systemet roboten operere i forskjellige miljøer ved å gi et detaljert kart over området.
Forskerne beskriver rollen til den store språkmodellen som er innebygd i systemet deres for å gjøre det mulig for roboter å forstå og utføre oppgaver ved å bryte ned instruksjoner uten store mengder treningsdata. Systemet er ikke bare i stand til å akseptere naturlige språkinstruksjoner, det er også i stand til å beregne de logiske hoppene roboten kan trenge basert på konteksten til miljøet, noe som gjør instruksjonene mye enklere og klarere, inkludert hva roboten kan gjøre, hva det kan ikke gjøre det, og i hvilken rekkefølge.
Stefanie Tellex, en av hovedforskerne i prosjektet og professor i informatikk ved Brown University, sa: "Ved valg av fag, vurderte vi spesifikt en mobil robot som beveger seg rundt i miljøet, og vi ønsket å ha en måte som roboten kunne forstå de komplekse og verbale instruksjonene som mennesket ga ham, som å gå ned Thayer Street i Providence for å møte meg på kaffebaren, men unngå CVS og stoppe i banken først, og følge instruksjonene nøyaktig."
Hvis forskningen oppnår resultater, vil den bli brukt på mange mobile roboter i byen i fremtiden, inkludert droner, selvkjørende biler, ubemannede transportkjøretøy osv., du trenger bare å bruke den vanlige måten å kommunisere med mennesker for å samhandle med roboten kan han forstå instruksjonene dine nøyaktig, noe som gjør bruk av mobile roboter i komplekse miljøer mulig.
For å teste systemet kjørte forskerne simuleringer ved hjelp av OpenStreetMap i 21 byer og viste at systemet utførte oppgaven nøyaktig 80 prosent av tiden, en mye høyere nøyaktighetsgrad enn andre lignende systemer, som typisk bare oppnår omtrent 20 prosent nøyaktighet og ikke kan håndtere komplekse instruksjoner og oppgaver.
Samtidig gjennomførte teamet også innendørs testing på Brown University campus med Boston Dynamics' spotrobot, som regnes som en av verdens ledende firedobede roboter for generell bruk, og suksessen med verifiseringen på stedet vil lette anvendeligheten av systemet til roboter fra andre produsenter.
Jason Xinyu, en doktorgradsstudent i informatikk og et ledende medlem av forskerteamet, forklarer hvordan systemet fungerer med et eksempel.
Anta at brukeren ber dronen gå til "butikken" på "Main Street", men å gå til "banken" først. Etter at instruksjonen er lagt inn, identifiserer programvaren først de to plasseringene, og deretter begynner språkmodellen å matche disse abstrakte plasseringene med den konkrete plasseringen til roboten. Samtidig analyserer den også lokasjonsmetadata, som adresse eller stedstype, for å hjelpe systemet med å ta avgjørelser, i dette tilfellet er det flere butikker i nærheten, men bare én er på Main Street, slik at systemet vet hvor å gå; Språkmodellen oversetter deretter kommandoene til lineær temporal logikk, som er en matematisk kode og notasjon for å uttrykke kommandoene; Til slutt kobler systemet den gjeldende kartlagte plasseringen inn i denne formelen, og ber roboten gå til punkt A, men etter punkt B.
En simulering basert på OpenStreetMaps vil bli lagt ut på nettet i november, slik at brukerne kan teste systemet selv. Brukere kan legge inn naturlige språkkommandoer på en nettside for å veilede en simulert drone på en navigasjonsoppgave for å hjelpe forskere med å finjustere programvaren.
Dette betyr at et «AI+ robot»-prosjekt som er opplært i fellesskap av publikum, kommer til oss.
