Przez lata tworzyliśmy narzędzia cyfrowe tak, żeby ludziom wyłączyć myślenie. Miało być szybko, łatwo, intuicyjnie. Na samym początku wieku dążenie do prostoty się sprawdzało. Wtedy jednak za zakupy na Allegro płaciliśmy przy odbiorze. Dziś w aplikacji bankowej obracamy coraz większymi kwotami. Sztuczna inteligencja, a właściwie cyberprzestępcy uzbrojeni w narzędzia SI tylko na to czekają.
Jak się przed tym bronić? Na powrót pozwólmy ludziom myśleć.
W ciągu ostatnich kilku miesięcy badaliśmy w Symetrii trzy niezależne koncepcje innowacyjnych metod płatności. Gdy zapoznałem się z wynikami każdego z tych badań, doszedłem do ponurego wniosku. Jako odbiorcy nie rozumiemy technologii i tego, co robimy na swoich urządzeniach. Do tego stopnia, że zagraża już to naszemu cyfrowemu bezpieczeństwu. Problemem nie są jednak źle zaprojektowane usługi, które nie zapewniają odpowiedniego poziomu zabezpieczeń. Coraz częściej to po prostu użytkownik nie ma już nawet podstawowej wiedzy dotyczącej technologii.
Korzystamy z aplikacji i płacimy telefonem, przechodząc przez cały proces, mimo że nie wiemy tak naprawdę, na co zgadzamy się klikając w „ok”. Nie wiemy, co właściwie kryje się pod nazwą „NFC”, ale w tym wypadku pewnie wielu odbije piłeczkę, bo mogą powiedzieć, że w sumie nie wiemy, co oznacza „wi-fi” czy „bluetooth”. Jednak już brak świadomości tego, że gdy ustawiamy płatność jako „domyślną”, to będzie ona wykorzystywana za każdym razem, kiedy będziemy korzystać z danej funkcji, może – w najlepszym wypadku – być przyczynkiem do nieporozumień, a w gorszych wypadkach skutkować dokonaniem niechcianych zakupów.
W badaniach przeprowadzonych przez zespół Symetrii zauważyliśmy też to, że bardzo często użytkownicy działają poprzez analogię. Jeśli płacimy np. BLIKIEM, to nowe systemy oceniamy i wykorzystujemy z perspektywy naszych wcześniejszych doświadczeń. Możemy więc mylnie interpretować to, co robimy, jeśli proces jest podobny. W Symetrii testowaliśmy rozwiązania, które pozwolą za pomocą karty kredytowej weryfikować wiek kupujących. Gdy dodawali najpierw produkt do koszyka, a następnie musieli potwierdzić swój wiek przykładając kartę, system działał źle, bo intuicyjnie chcieli już na tym etapie płacić. Dopiero odwrócenie procesu i weryfikacja, zanim konsumenci wybrali produkt, powodowało złamanie schematu i zastanowienie się, do czego właściwie używają karty.
Popełniamy błędy, które sami prowokujemy, nie zatrzymując się choćby na chwilę, a nieufność potęgują miejskie legendy. Często powtarzane są zasłyszane gdzieś przypadki, że ktoś pobrał komuś w autobusie pieniądze przenośnym terminalem zbliżeniowym, które jednocześnie nijak mają się do prawdy. To najlepiej ilustruje skalę niezrozumienia technologii.
Wyłączyliśmy ludzki mózg
Nasza branża, rozumiana jako społeczność ludzi związanych z użytecznością cyfrowych produktów, badaniem doświadczeń użytkowników czy projektowaniem, mniej lub bardziej nieświadomie doprowadziła do tego, że odbiorcy nie mają wiedzy, jak działają narzędzia cyfrowe. Technologie są zbyt skomplikowane? Nie do końca.
Kierujemy się jednak od lat radą Steve’a Kruga: DON’T MAKE ME THINK. Kuszącą ideą, żeby tworzyć rzeczy proste i intuicyjne. Usługi, które pozwalają klientom realizować swoje cele szybko i instynktownie, zarazem zabijają w nich to, co najbardziej ludzkie – umiejętność myślenia. Ktoś znowu powie, że z tym jest jak z jazdą na rowerze: tego się nie zapomina. Jednak mamy zbyt wiele badań, które wprost wskazują, że mózg pozbawiony bodźców „rozleniwia się”, a tak naprawdę wykorzystuje swoje zasoby w mniejszym stopniu.
Tylko że Steve Krug – guru dla wielu twórców cyfrowych narzędzi – opublikował swoją książkę w 2000 r. Bankowość internetowa dopiero raczkowała, a na Allegro płaciliśmy przekazem pocztowym. W pierwszym, drugim (2006) i trzecim (2014) wydaniu podpierał się takim samym założeniem: jeśli nawet czasem popełnimy błąd podczas korzystania z narzędzi cyfrowych, to najwyżej będziemy musieli nacisnąć przycisk „wstecz”. Niestety nasze życie jest już zdigitalizowane w takim stopniu – w sieci pracujemy, leczymy się i robimy zakupy – że konsekwencje bezwiednego zautomatyzowania mogą być o wiele poważniejsze.
Dzielimy się swoimi danymi, nie wiedząc nawet, do czego i przez kogo są wykorzystywane, a pobierane i zapisywane są coraz bardziej wrażliwe dane np. zdrowotne. Aplikacje, które zbierają dane o naszym pulsie, poziomie cukru, jakości snu, przebytych krokach itd. wbrew naszym wyobrażeniom nie są widoczne tylko dla nas. Co więcej, rozwój np. telemedycyny lub innych zdrowotnych narzędzi cyfrowych, który zaobserwowaliśmy w trakcie pandemii COVID-19, będzie się wiązał z tym, że będziemy zapisywać i przekazywać coraz więcej danych. O swoje zdrowie, komfort fizyczny i psychiczny zapewne zadbamy, korzystając z coraz lepszych rozwiązań cyfrowych.
Ale czy będziemy pamiętać o bezpieczeństwie naszych danych również?
Czy jeśli korzystając z jednej aplikacji, której twórcy i administratorzy zwracają maksymalną uwagę na aspekt bezpieczeństwa, nie pójdziemy tym samym tropem przy innym oprogramowaniu, którego „nadzorcy” już nie są tak rzetelni? A może przeświadczenie, że przecież „ktoś” tam dba o nasze bezpieczeństwo, spowoduje, że będziemy łatwowierni, żeby nie powiedzieć wprost – naiwni?
Bezpiecznie już było. SI poda się za naszego przyjaciela
Kilka minut wystarczy, żeby w internecie znaleźć wiele prawdziwych historii o tym, że działanie na „autopilocie” prowadzi do zguby. Wystarczy jeden SMS łudząco podobny do tego wysłanego przez bank, a e-mail i konta osobiste lub firmowe mogą zostać wyczyszczone. Zdarza się tylko innym? Zdarzyć może się niemal każdemu z nas, bo w 2022 r. do krajowego Zespołu Reagowania na Incydenty Bezpieczeństwa Komputerowego (CERT Polska) zgłoszono ponad 320 tys. przypadków zagrożenia cyberbezpieczeństwa. To o ponad 180% więcej niż rok wcześniej.
Stoimy u progu rewolucji rozpowszechnienia się sztucznej inteligencji nowej jakości. Mamy już choćby ChatGPT, w który wyposażona jest przeglądarka Bing Microsoftu. Google wkrótce będzie kontratakował w tym wyścigu zbrojeń dzięki rozwijanej przez siebie technologii Bard AI. Kolejne narzędzia innych firm wydają się też być tylko kwestią czasu. Zrozumienie technologii odjedzie nam jeszcze dalej. To zbiega się z coraz bardziej wyrafinowaną i powszechną cyberprzestępczością, która, napędzana SI, tylko czeka na nasze niezrozumienie, zautomatyzowanie i bezwiedność.
Pierwsze ostrzeżenia już płyną od unijnych organów, jak np. Europol. „Policja europejska” ostrzega przed potencjalnym niewłaściwym wykorzystaniem chatbota w próbach phishingu, dezinformacji i cyberprzestępczości. Natomiast włoscy urzędnicy wszczęli dochodzenie w związku z podejrzeniem naruszenia zasad gromadzenia danych w aplikacjach wykorzystujących sztuczną inteligencję.
Wyłudzenie „na wnuczka” czy „na policjanta” będzie jeszcze łatwiejsze. Napisanie bota, który będzie dzwonić i rozmawiać z ludźmi w taki sposób, żeby nie mieli świadomości, iż po drugiej stronie nie ma człowieka, to nie będzie trudna sprawa. Podobnie z deep fake’ami, czyli tworzonymi za pomocą SI obrazami lub wideo. Nagranie filmu, w którym znany nam agent ubezpieczeniowy przedłuża z nami umowę, prosi o dane lub o przelew będzie co prawda wymagało trochę pracy, ale na pewno przy użyciu SI zdecydowanie zmniejszy się koszt takich działań i potrzebny na to czas, a więc tym samym zwiększy się „opłacalność” takich ataków.
Czy taki klient naprawdę wybaczy marce, której przez wiele lat ufał, ale teraz nie zabezpieczyła się przed takimi atakami, np. nie podjęła odpowiednich kroków edukacyjnych?
Pozwólmy ludziom rozumieć
Dlatego powinniśmy zmienić zarówno podejście do tworzenia usług cyfrowych, jak i sposób, w jaki marki komunikują się z klientami. Czas na nową ideę: MAKE ME UNDERSTAND. To sposób projektowania, który w jak największym stopniu umożliwia użytkownikom „learnability” – co można przetłumaczyć jako łatwość nauczenia się systemu przez odbiorcę. Wbrew pozorom nie wiąże się to z komplikowaniem interfejsów. Po prostu na ekranach w odpowiednim, ale zarazem potencjalnie krytycznym i ryzykownym momencie, powinny pojawić się „triggery”, czyli komunikaty w formie zaczepek, które wyostrzą uwagę użytkownika. Sprawią, że zastanowi się on, co teraz robi, i wykona ten krok świadomie. Projektowanie powinno skoncentrować się na tworzeniu kontekstowych „wzmacniaczy” uwagi, ale też na natychmiastowej możliwości nabycia wiedzy.
Jak to rozwiązać w praktyce? Choćby wykorzystując możliwości inteligentnych chatbotów. Podpisując np. umowę leasingową online, możemy dopytywać taki chat o zapisy dokumentu, których nie rozumiemy. On nam odpowie i upewni się, że zdobyliśmy potrzebną wiedzę, a całość rozmowy zostanie zapisana na wypadek reklamacji. Klient wie więcej, bo np. został mu wskazany dokładny punkt umowy i nie musi wertować całego dokumentu. Zarazem oszczędzamy jego czas, ale też budujemy zaufanie poprzez pokazanie, że nic nie mamy do ukrycia, a wykorzystywaną SI kontrolujemy, żeby była narzędziem użytecznym.
Czy idziemy w tę stronę? Pierwsze wrażenie z korzystania z obecnych narzędzi SI może budzić co tego wątpliwości. ChatGPT i inne programy tego typu generują niedokładne odpowiedzi i choć w kolejnych miesiącach zapewne będzie ich coraz mniej, to jednak człowiek zawsze może zadać pytanie, które zbije algorytm z tropu. I wtedy maszyna, która niemal nie mówi „nie wiem”, wymyśli odpowiedź. Dodatkowo można się obawiać, że ludzie mogą pokładać zbyt duże zaufanie w „inteligentnym” oprogramowaniu.
Według Microsofta to dobrze, że SI czasem się myli. W internetowej prezentacji na temat nowych funkcji Copilot, która będzie wbudowana m.in. w pakiety biurowe, kierownictwo firmy wspomniało o tendencji oprogramowania do generowania niedokładnych odpowiedzi. Jednak przedstawiło to jako coś, co może być przydatne. Zdaniem firmy, dopóki ludzie zdają sobie sprawę, że odpowiedzi asystenta mogą być przekłamane, dopóty mogą edytować nieścisłości. Czas poświęcony na zmiany będzie i tak krótszy niż pisanie tekstu samodzielnie od pierwszego zdania. Tym samym ChatGPT pozwoli szybciej wysyłać e-maile lub kończyć slajdy prezentacji.
Z punktu widzenia użytkowników nie jest to jednak idealne rozwiązanie. Pójście na łatwiznę, bezmyślne wykorzystywanie podpowiedzi SI, spowoduje, że nie raz popełnimy błąd. Pół biedy, gdy to będzie pomyłka w mało istotnej sprawie, ale sztucznej inteligencji zawierzamy coraz poważniejsze aspekty naszego życia. Zrozumienie, że technologia jest omylna, powinno do nas przyjść do nas znacznie wcześniej niż w powiedzeniu „mądry Polak po szkodzie”. W tym przypadku szkody mogą być bowiem bardzo kosztowne.
Autor: Krzysztof Kozak, Innovation Expert, Symetria
Doradza firmom i instytucjom w wyznaczaniu kierunków strategicznych. W pracy łączy dorobek nauk humanistycznych z wiedzą o najnowszych technologiach. Dzięki tej mieszance pomaga z wyprzedzeniem reagować na zmiany i obierać bezpieczniejsze długoterminowe kierunki rozwoju. Specjalizuje się w obszarze Phygital – postępującym przenikaniu się elementów fizycznych, kontaktów międzyludzkich i rozwiązań cyfrowych. Propaguje również podejście podejmowania decyzji strategicznych i projektowych w oparciu o miary zachowania klientów i metryki biznesowe. Od 11 lat związany z agencją Symetria, w której pracował dla największych polskich i międzynarodowych marek: BLIK, Mastercard, CANAL+, ING, Orange, Allegro i Lidl.