Doradzają nam jakiej muzyki słuchać, pomagają wybrać wieczorem film do obejrzenia z rodziną, podsuwają produkty, które mogą nas zainteresować. Algorytmy, które uczą się naszych zachowań są obecne w naszym życiu od dawna, zatem ChatGPT nie jest aż tak wielką rewolucją pod tym względem. To, co przesądziło o jego popularności to fakt, że tekstowo i w prosty sposób potrafi odpowiadać na pytania zadawane przez użytkowników. Tu jednak warto się zatrzymać i zadać sobie pytanie: czy zawsze odpowiada trafnie?
Jednym z największych wyzwań stojących przed firmami tworzącymi i zarządzającymi SI jest kontrola i dobór źródeł, z którym ich programy czerpią swoją wiedzę. Nie jest przecież tak, że jakakolwiek SI „wymyśla” lub „myśli”, tylko po prostu kompiluje ze swojej bazy danych informacje i przekazuje je jako odpowiedź. Nie interpretuje, nie jest wrażliwa na niuanse i konteksty. Dzieli się tym, czego się nauczyła, bezrefleksyjnie. Zatem obecnie wyzwaniem jest to by SI uczyły się na odpowiednich źródłach i nie przekazywały dalej informacji błędnych lub szkodliwych.
Jednak świat ludzkich wynalazków w erze informacji działa tak, że jeśli po jednej stronie globu ktoś wymyśli zamek, to możemy być pewni, że po drugiej stronie już ktoś inny pracuje nad wytrychem. Tak samo jest przy SI, ten kto może wpływać na to skąd będą czerpać wiedzę, będzie miał realny wpływ na wyniki, które algorytmy pokażą ludziom. Pokazała to afera „Cambridge Analytica”, gdzie wykorzystano media społecznościowe do wpływania opinie wyborców w Europie i USA.
- Niebezpieczne jest samo to, że ludzie mają nosy przylepione do ekranów komórek, że część młodych ludzi więcej czasu spędza w świecie wirtualnym, niż rzeczywistym – mówi profesor Andrzej Kisielewicz z Politechniki Wrocławskiej w rozmowie z PAP - Nie zdają sobie sprawy, że są uzależnieni, że osoby-firmy dysponujące takimi siłami obliczeniowymi mogą kontrolować całe społeczeństwa. To się już dzieje w Chinach, na Zachodzie korporacje także to już wykorzystują – żeby wciskać ludziom towary, żeby modelować zachowania wyborcze, co oznacza koniec demokracji, jaką znamy.
Kolejne afery i śledztwa wykazują, że największe media społecznościowe, w których działaniu SI są niezwykle ważne, nastawione są coraz bardziej na antagonizowanie użytkowników. Dzięki temu mogą liczyć na większy ruch i zaangażowanie odbiorców. Wiadomo: jeśli coś nam się podoba, to damy „lajka” i pójdziemy dalej, a jeśli nie – napiszemy wściekły komentarz albo, co znacznie lepsze dla właścicieli portalu, wejdziemy z kimś w długą dyskusję. Więcej aktywności to czysty zysk, tylko oczywiście nie dla nas.
SI puszczone „samopas” w internetowe głębiny często wracają pełne fałszywych informacji, przekłamań, szkodliwych poglądów i uprzedzeń. Przykładem była choćby Tay stworzona przez Microsoft, która po krótkim czasie w sieci nauczyła się hejtu i miłości do Adolfa Hitlera. ChatGPT i inne tego typu narzędzia będą musiały mieć osobne zespoły stale kontrolujące ich zasoby, które inni będą próbowali karmić niebezpiecznymi lub fałszywymi informacjami. Możliwe, że już niedługo pojawią się ogłoszenia z ofertami pracy dla „pasterzy i pasterek SI” albo „wychowawców i wychowawczyń SI”.