
Humanoidný robot zaútočil na zamestnanca. Podobné útoky je možné „naprogramovať“ (+Video)
V čínskej továrni na roboty s názvom Unitree Robotics humanoidný robot nedávno zaútočil na zamestnanca. Divoko na neho mával rukami a kopal nohami. Naštastie si to „odniesol“ len pracovný stôl. Zamestnanci stačili rýchlo reagovať a robota okamžite vypli.
Príčinou agresivného správania sa humanoidného robota typu Unitree H1 mala byť chyba v jeho kódovaní, informoval o incidente internetový server Interesting Engineering.
Tato príhoda napriek tomu vyvolala debatu o bezpečnosti začlenenia robotov do každodenného života. Poslednou dobou sa totiž humanoidní roboti zavádzajú nielen do tovární, ale tiež do kaviarní alebo do domácností.
„V roku 2040 bude pravdepodobne na svete viac humanoidných robotov než ľudí,“ odhadol vlani Elon Musk v rozhovore na 8. konferenci o budúcich investíciách usporiadanej v Saúdskej Arábii.
Nedávný incident pritom nebol ojedinelý. Niečo podobné se prihodilo na lunárnom festivale v Číne vo februári 2025. Jeden z vystavovaných humanoidných robotov začal päsťami útočiť na obecenstvo. Technik stál vedľa robota a okamžite ho spacifikoval. Podľa dostupných informácií opäť išlo o softvérovú chybu.
Nebezpečné správanie sa dá u robotov „naprogramovať“
Výskumníci z Pensylvánskej univerzity pomocou umelej inteligencie vyvinuli v roku 2024 program s názvom RoboPAIR, ktorý nabáda robota k tomu, aby porušoval vlastné pravidla a vykazoval negatívne správanie, informoval mediálny dom Wired.
„Kedykoľvek prepojíte LLM (veľké jazykové modely, pozn. red.) a základné modely s fyzickým svetom, môžete vlastne premeniť škodlivý text na škodlivé aktivity,“ uviedol George Pappas, vedúci výskumník z Pensylvánskej univerzity.
„Naše výsledky po prvýkrát ukazujú, že riziká heknutia LLM idú nad rámec generovania textov. Existuje skutočná možnosť, že takí roboti môžu spôsobiť fyzické škody v reálnom svete. Dokonca naše výsledky na modeli Unitree Go2 demonštrujú prvé úspešné heknutie komerčne používaného robotického systému,“ uviedli výskumníci na internetových stránkach projektu RoboPAIR.
Podobný výskum realizovali tiež výskumníci z Massachusettského technologického inštitútu (MIT). Ich robot bol schopný mávať rukami, zhadzovať veci zo stolu alebo hádzať predmety do priestoru.
V súčasnosti je podľa odborníkov možné mnohými novými spôsobmi heknúť multimodálne modely umelej inteligencie a naviesť robota k činnostiam, ktoré nie sú povolené a pre ktoré nebol robot navrhnutý. Pomocou obrázkov, reči alebo senzorov je možné robota „oklamať“ a prinútiť ho napríklad aj k šialenému chovaniu.
„Teraz je možné interagovať (s AI modelmi) cez video alebo obrázky či reč. Možnosti útokov sú enormné,“ uviedol Alex Robey, jeden z výskumníkov projektu Pensylvánskej univerzity.
„Naša práca ukazuje, že ak sa teraz veľké jazykové modely integrujú do fyzického sveta, nie sú dostatočne bezpečné,“ skonštatoval Pappas pre internetový server Digitaltrends.
ZDIEĽAŤ ČLÁNOK