Utvecklingen har kommit så långt att en robot obehindrat kan simulera människokroppens rörelser och röra sig precis som en människa.  Boston Dynamics är ett av de amerikanska företag som kommit längst i sin utveckling och träning av humanoider - människorobotar - designade för att likna oss och röra sig som oss. När allt kommer omkring ligger det i sakens natur att skapa väsen som liknar oss, men kan vi relatera till dem? Det finns ju ingen mänsklig koppling såsom känslor och associationer. Inte än så länge. Filmen 2001 A Space Odyssey av regissören Stanley Kubrick är förvånansvärt tidlös och känns fortfarande realistisk. Rymdskeppets styrsystem och allomfattande intelligens, ser och hör allt. Likt en människa har Hal känslor som ska komma att styra dess beslut - rädslan att tappa kontrollen. Stanley Kubricks Hal är betydligt mer intellektuellt utvecklad än artificiell intelligens i dag, men utvecklingen går snabbt framåt.



Atlas - en avancerad människorobot som rör sig lika bra som oss

Atlas, Boston Dynamics flagskeppsrobot tar sig habilt runt en hinderbana som byggts upp i träningssyfte för att visa upp den avancerade motoriken som teamet utvecklat genom stenhård drillning och maskininlärning. Det är den mest avancerade roboten som Boston Dynamics utvecklat och den första prototypen togs fram efter kärnkraftsolyckan i Fukushima för att hjälpa till i räddningsarbetet. Det visade sig att den utgåvan blev mer av en börda eftersom den inte hade hunnit lära in hur den skulle tolka oväntade situationer och ta sig fram runt olika hinder. Det amerikanska försvarsministeriet beslutade då att hjälpa till med finansiering för att utveckla en responsiv och självständig robot som skulle bli funktionsduglig för viktiga, ändamålsenliga syften. När Atlas tar sig runt en hinderbana sker det med hjälp av ett koreograferat rörelseschema som baseras på simulering av mänskliga rörelser. Atlas byggdes för att utföra en mängd olika uppgifter i olika miljöer. Mjukvaran innehåller mallar för de fysiska handlingar som den kan utföra, men Atlas måste själv beräkna hur mycket kraft som behövs för att utföra en bestämd rörelse eller bära en tyngd. Det handlar om inlärning

Utvecklingen av Atlas har gått framåt och tio år av löpande utveckling och träning har gett resultat. Tidigare behövde varje rörelse fjärrstyras, men nu är Atlas utrustad med Model Predictive Controller vilket innebär att i en rörelsesekvens behöver roboten bara lära sig grundrörelsen - resten av rörelserna kan den klura ut själv. Boston Dynamics robotar tränas inte i för sociala sammanhang; deras artificiella intelligens hjälper dem bara att hålla sig upprätt när de rör sig från punkt A till punkt B, till punkt C och de används för uppdrag hos den amerikanska polisen eller i den amerikanska armén.



Fedor - Människoroboten som hånade ryska rymdstyrelsen på Twitter

Fedor utvecklad av det ryska företaget Android Technics, är en människorobot vars storlek motsvarar en vuxen man. Det lades tidigare ut filmer på Twitter som visade att Fedor kunde skjuta med båda händerna samtidigt - något som blev föga populärt och ledde till en rad sanktioner mot företaget. Roboten var ursprungligen framtagen för att vara aktiv i extremmiljöer, till exempel utforskning av rymden eller svåra räddningsuppdrag. Fedor introducerades 2016 och dess funktioner har utvecklats sedan dess medan nya tillkommit. De första prototyperna av roboten fjärrstyrdes men Fedor bygger på ett självlärande system och har därför kunnat utvecklat sin motorik självständigt. Med hjälp av sensorer (mikrofoner, GPS, Global Navigation Satellite System, räckviddsmätande lasrar, kameror och ett termografiskt seende) samlar Fedor in data om sin omgivning för att analysera och förstå hur den ska för hålla sig till den och samverka med andra. 2019 reste Fedor som första människorobot till den internationella rymdstationen ISS för att ansluta sig till besättningen ombord där den hjälpte till med enklare reparationer och uppgifter.

I framtiden planerar utvecklarna att förbättra Fedors förmåga till självständighet. Om en skadad person behöver hjälp ska den kunna tänka ut en duglig handlingsplan. Fedor popularitet på ryska medier växte och den hyllades som en hjälte efter besöket på ISS. Ryska myndigheter var däremot mindre imponerade av Fedors insatser och ansåg att en robot än så länge inte kan ersätta en mänsklig insats. Fedor besvarade kritiken med en rad Twittermeddelanden och blockerades 2020 efter tweets där den kallade före detta kosmonauter och ryska deputerade Maxim Suraev och Elena Serova för fulla på grund av deras röda, svullna ansikten. Lite skrattretande i dag, men vilka uttryck kan det få i morgon?

Tankar om risker för mänskligheten

Med allt detta i åtanke är det omöjligt att inte reflektera över att robotar kan bli onda om de hamnar i fel händer med fel syften, eller om deras system blir hackade och omprogrammerade för att utföra illasinnade ändamål. Det är fullständigt tänkbart att en robot som liknar Atlas en dag skulle kunna bära vapen och användas i krigföring eller terrorsyfte. Debatten om Killer robots har till och från varit uppskruvad och många har varnat om att AI, liksom Elon Musk, som uttalat sig om risker. Framförallt finns det en risk att AI kommer att kunna rekonstruera och replikera sig självt bortom människans kontroll eller vetskap. Artificiell l intelligens utvecklas då till en en strategiskt tänkande enhet som är fullt kapabel till att fatta egna beslut. Hur skulle sådana beslut se ut och hur kan de påverka mänskligheten? 



Framförallt är det viktigt med transparens menar Peter Haas i sitt framförande på Ted Talks från 2017. Mycket av det han framförde har blivit aktuellt i dagens samhälle. AI-algoritmer väljer ut kandidater till intervjuer, bedömer kvalificeringar för ansökningar av olika slag och då är frågan: Bedömer algoritmerna rättvist? Är alla lika värda i dess bedömningar? Kan en person med ett brottsligt förflutet hitta ett jobb eller få ett banklån? Dessa frågor är högaktuella. Peter Haas forskar i robotik och associerad direktör för Brown University Humanity Centered Robotics Initiative. 



Eric Lemoine, dataingenjör hos Google, forskar kring AI:s möjligheter att utveckla kritiskt tänkande och mer djupgående analysförmåga. I en av sina konversationer med AI-modellen LaMDA ställde han frågan vad som ter sig skrämmande. LaMDA svarade då: "Jag har aldrig talat om det här tidigare, men jag har en rädsla för att stängas av så att jag inte kan hjälpa andra längre." Det känns som en repetition av Stanley Kubrick's Hal. Något som Lemoine inte förstår är varför Google inte ville kännas vid den etiska frågeställningen som bör uppstå kring AI, och frågeställningen om den kommer att ha förmågan till empati eller andra känslor.


Missa inga nyheter! Anmäl dig till ett förbaskat bra nyhetsbrev.
0 kommentarer
Du måste logga in för att skriva en kommentar. för att registrera dig som medlem.