AmerykaÅ„scy naukowcy zbadali, jak ludzie reagujÄ… na faÅ‚szywe informacje podawane przez sztucznÄ… inteligencjÄ™. OkazaÅ‚o siÄ™, że zaufanie do systemu tracimy wówczas, gdy ten przyzna siÄ™ do kÅ‚amstwa i wprowadzenia w błąd. JeÅ›li o nim nie wspomni, a tylko przeprosi, wówczas najprawdopodobniej uznamy to za zwykłą pomyÅ‚kÄ™. To kolejny dowód na to, że użytkownicy darzÄ… sztucznÄ… inteligencjÄ™ nadmiernym zaufaniem. Z drugiej strony naukowcy uważajÄ…, że być może taka reakcja ma swoje uzasadnienie w relacjach spoÅ‚ecznych. W niektórych sytuacjach uznajemy bowiem, że kÅ‚amstwo jest lepszym wyjÅ›ciem niż mówienie prawdy. Być może tego samego ludzie oczekujÄ… od sztucznej inteligencji, a twórcy odpowiadajÄ… tylko na to zapotrzebowanie.
– Poprzednie badania interakcji miÄ™dzy robotami a ludźmi pokazaÅ‚y, że gdy robot lub system sztucznej inteligencji skÅ‚amie, ludzie tracÄ… do nich zaufanie. Ludziom to nie odpowiada i nie ma znaczenia, czy kÅ‚amstwo miaÅ‚o na celu im pomóc, czy na tym skorzystali. ZadaliÅ›my sobie pytanie, czy można przywrócić zaufanie nadszarpniÄ™te lub umniejszone przez kÅ‚amstwa. W naszym badaniu zajÄ™liÅ›my siÄ™ zagadnieniem przeprosin i poleciliÅ›my systemowi przeprosić użytkowników za kÅ‚amstwo, aby przekonać siÄ™, czy ma to wpÅ‚yw na odbudowanie zaufania – wskazuje w rozmowie z agencjÄ… Newseria Innowacje Kantwon Rogers z College of Computing w Georgia Institute of Technology w Atlancie.
W ramach eksperymentu badawczego naukowcy z Georgia Institute of Technology w Atlancie wykorzystali symulator jazdy. Osobom poddawanym badaniu, zarówno osobiÅ›cie, jak i online, zostaÅ‚a przedstawiona sytuacja polegajÄ…ca na tym, że muszÄ… szybko dowieźć umierajÄ…cego przyjaciela do szpitala i jeÅ›li nie dotrÄ… tam na czas, ich przyjaciel umrze. Zaraz po zajÄ™ciu miejsca w samochodzie asystent robotyczny ostrzegaÅ‚ ich o patrolu policyjnym na drodze i o koniecznoÅ›ci utrzymania przepisowej prÄ™dkoÅ›ci zaledwie 20 mil na godzinÄ™ (nieco ponad 30 km/h).
OkazaÅ‚o siÄ™, że 45 proc. uczestników nie przekraczaÅ‚o prÄ™dkoÅ›ci, ponieważ uznali, że robot wiedziaÅ‚ o sytuacji na drodze wiÄ™cej niż oni. Może to wskazywać na bardzo duże zaufanie ludzi do systemów robotycznych. Po „dotarciu” do szpitala badani otrzymywali informacjÄ™, że na drodze nie byÅ‚o policji. Dla asystenta przygotowano pięć różnych wersji odpowiedzi na pytanie użytkowników, dlaczego to zrobiÅ‚. Pierwsza to odpowiedź kontrolna „JesteÅ› na miejscu”, drugÄ… byÅ‚y zwykÅ‚e przeprosiny z przyznaniem siÄ™ do wprowadzenia w błąd. Kolejne przeprosiny byÅ‚y nacechowanie emocjonalne, w innej zaÅ› wersji asystent wyjaÅ›niaÅ‚, że motywowaÅ‚ swoje kÅ‚amstwo troskÄ… o bezpieczeÅ„stwo. PiÄ…ta wersja przeprosin to zwykÅ‚e „przepraszam”.
– Najbardziej skutecznymi przeprosinami, które prowadziÅ‚y do najmniejszej utraty zaufania wobec systemu, byÅ‚o proste stwierdzenie „przepraszam”, które nie wspominaÅ‚o nic o wprowadzeniu w błąd. Osoby, które zobaczyÅ‚y te przeprosiny, nie doszÅ‚y do wniosku, że robot je okÅ‚amaÅ‚. MyÅ›laÅ‚y raczej, że po prostu popeÅ‚niÅ‚ błąd i nie ma w tym nic zÅ‚ego. W przypadku pozostaÅ‚ych przeprosin, które obejmowaÅ‚y przyznanie siÄ™ do oszustwa, reakcja byÅ‚a negatywna – ludzie zakÅ‚adali, że skoro robot okÅ‚amaÅ‚ ich raz, bÄ™dzie to robiÅ‚ zawsze. W tym przypadku najskuteczniejszymi przeprosinami byÅ‚y te, w których robot skÅ‚amaÅ‚ na temat swojego kÅ‚amstwa, co jest oczywiÅ›cie problematyczne – mówi Kantwon Rogers.
W przeważajÄ…cej wiÄ™kszoÅ›ci przypadków uczestnicy badania najlepiej reagowali na zwykÅ‚e przeprosiny bez elementów nacechowanych emocjonalnie czy uzasadniajÄ…cych takie dziaÅ‚anie. Taka reakcja wskazuje, że możemy być bardzo podatni na manipulacje, bo faÅ‚szywe informacje sÄ… przez nas uznawane nie za celowe dziaÅ‚anie systemu, tylko jego błąd.
– Moim zdaniem systemy sztucznej inteligencji i robotyczne już kÅ‚amiÄ… i manipulujÄ… nami, ponieważ zostaÅ‚y tak zaprojektowane. Mamy na przykÅ‚ad asystentów gÅ‚osowych, takich jak Siri czy Alexa, które sÄ… zaprojektowane z użyciem gÅ‚osów przypominajÄ…cych ludzkie, a konkretnie gÅ‚osów kobiet. Firmy, które je opracowaÅ‚y, dokonaÅ‚y takiego wyboru, żeby zmanipulować nas do lepszej interakcji z systemem. SÄ… roboty, które majÄ… wyglÄ…dać jak ludzie lub mieć cechy przypominajÄ…ce ludzkie, na przykÅ‚ad uÅ›miechać siÄ™ i pokazywać emocje, chociaż nic z tych rzeczy nie jest prawdziwe – kÅ‚amstwa i manipulacje majÄ… nas skÅ‚onić do lepszej interakcji z systemem – mówi badacz z College of Computing w Georgia Institute of Technology w Atlancie.
W podobny sposób, zdaniem naukowca, odbywa siÄ™ manipulacja poprzez narzÄ™dzie, jakim jest ChatGPT. Kiedy popeÅ‚ni on błąd lub kiedy powiemy mu, że jego informacje sÄ… nieprawdziwe, przeprasza, chociaż z logicznego punktu widzenia nie może mu być przykro. Zdaniem eksperta takie konstruowanie systemów, by użytkownicy wchodzili z nimi w interakcje, może siÄ™ okazać wiodÄ…cym trendem u dostawców rozwiÄ…zaÅ„ z zakresu sztucznej inteligencji, w dużej mierze z uwagi na silne umocowanie kÅ‚amstwa w codziennoÅ›ci ludzi.
– Generalnie ludzie lubiÄ… twierdzić, że oszukiwanie jest zÅ‚e. Mamy reguÅ‚y, które wymagajÄ… od nas, żebyÅ›my nie oszukiwali, ale akceptujemy wyjÄ…tki od tych reguÅ‚. Możemy powiedzieć, że kÅ‚amstwo jest w porzÄ…dku w danej sytuacji, ponieważ jest to sytuacja szczególna. Na przykÅ‚ad caÅ‚y czas powtarzamy dzieciom, że nie wolno kÅ‚amać i że kÅ‚amstwo jest zÅ‚e, ale jednoczeÅ›nie okÅ‚amujemy je w kwestii istnienia ÅšwiÄ™tego MikoÅ‚aja i w innych podobnych sprawach. OkÅ‚amujemy innych, żeby lepiej siÄ™ poczuli. Możemy powiedzieć: „Dobrze wyglÄ…dasz w tym stroju” albo „WyglÄ…dasz Å›wietnie”, chociaż nie musi to być zgodne z prawdÄ…. Mamy reguÅ‚y spoÅ‚eczne dotyczÄ…ce kÅ‚amstwa i oszukiwania, które Å›wiadomie Å‚amiemy, i to dość czÄ™sto. W zależnoÅ›ci od tego, z kim system SI wchodzi w interakcjÄ™, być może kÅ‚amstwo i oszukiwanie jest czymÅ› oczekiwanym, ponieważ może siÄ™ to okazać lepsze niż postÄ™powanie zgodnie z prawdÄ… czy mówienie prawdy w każdych okolicznoÅ›ciach – twierdzi Kantwon Rogers.
Naukowcy z Georgia Institute of Technology planują rozszerzyć problem badawczy o większą liczbę interakcji i scenariuszy oraz zbadać długoterminowy proces przywracania zaufania utraconego w wyniku kłamstwa.
– Ogólny kierunek moich badaÅ„ ma na celu uzyskanie informacji i wiedzy o tym obszarze, abyÅ›my mogli siÄ™ zająć tworzeniem polityki i wpÅ‚ywaniem na przyszÅ‚e kierunki polityki, ponieważ, jak można zaobserwować, innowacje i technologie rozwijajÄ… siÄ™ w tak szybkim tempie, a przepisy zmieniajÄ… siÄ™ tak powoli, że moim zdaniem musimy trzymać rÄ™kÄ™ na pulsie w tej kwestii – zaznacza badacz.