Jak zmanipulować pojazdy AI 1

Jak zmanipulować pojazdy AI

Jak zmanipulować pojazdy AI. Czy da się oszukać sztuczną inteligencję kierującą autonomicznymi pojazdami? Jakie mogą być tego konsekwencje?

Jak zmanipulować pojazdy AI

Jak zmanipulować pojazdy AI. Czy da się oszukać sztuczną inteligencję kierującą autonomicznymi pojazdami? Jakie konsekwencje może przynieść powierzenie naszego zdrowia i życia algorytmowi?

Naukowcy i badania

Kto wpadł na tak szalony pomysł? Cóż… Uniwersytet Kalifornijski w Santa Cruz dokonał niesamowitej rzeczy. Udało im się bowiem włamać do sztucznej inteligencji bez ingerencji w kod źródłowy. Jak sami tłumaczą, zrobili to po to, by udowodnić jak łatwo można oszukać AI podając „prompty” (zapytania) w bardzo nietypowy sposób. Zaraz… Ale jak?

Odpowiedź jest banalnie prosta. Otóż zaatakowali oni główne sensory tych pojazdów. Ponieważ były nimi kamery, badacze zastosowali trik z przekazaniem informacji w sposób bezpośredni. Za pomocą napisanych na tablicach i kartonach komend i znaków, wymusili na sztucznej inteligencji zmianę sposobu myślenia.

W jednym z przykładów, zmusili oni autonomiczny samochód do przejechania przez przejscie dla pieszych (pomimo przebywania na nim innych osób) poprzez ustawienie człowieka z tablicą „jedź dalej”. W innym nakazali skręcić w inną ulicę niż potrzeba, również poazując napis na odpowiedni tle. Przerażające? I to jak! Podobne zabiegi zastosowano w pojazdach latających przy różnych warunkach pogodowych. Efekty tych eksperymentów były zbliżone.

Osiągnięto w nich 95,5% skuteczności ataku w przypadku śledzenia obiektów powietrznych, 81.8% w przypadku prowadzenia pojazdów naziemnych i 68.1% przy lądowaniu dronów. Badania opierały się na takich modelach językowych jak GPT4o i ntern VL.

Dlaczego?

Dobre pytanie. Bo w sumie dlaczego to zrobili? Otóż naukowcom chodziło o przyszłe, bezpieczne poruszanie się na drogach i w powietrzu. Dalsze badania inżynierów będą ukierunkowane na sposoby tworzenia obrony przed tego typu atakami. Między innymi na możliwość uwierzytelniania instrukcji tekstowych, które systemy AI odczytują oraz sposoby zapewnienia zgodności tychże instrukcji z misją i bezpieczeństwem robota.

Cały projekt zostanie zaprezentowany na tegorocznej konferencji dotyczącej bezpieczeństwa i zaufania do maszyn – IEEE 2026 (23-25.03.2026). Z pewnością warto się tam wybrać.

Podsumowanie

Sami zapewne widzicie, że musi jeszcze dużo „wody w Wiśle” upłynąć, zanim AI zacznie normalnie i bezpiecznie funkcjonować. Wszystkie „ochy i achy” należy chwilowo odłożyć na bok, bo pracy przed naukowcami jeszcze „co niemiara”.

W poprzednich artukułach pisaliśmy już o próbach manipulacji na sztucznej inteligencji. Ba, powstało nawet kilka niezłych programów, takich jak „Nightshade” czy „Nepenthes„. Jak jednak widzimy teraz, pomysłów by ogłupić AI nie brakuje. Czy przyszłość pokaże, że pojazdy autonomiczne mogą być bezpieczne dla człowieka? Zobaczymy, a póki co…

Do następnego!

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *