Naukowców niepokoi niski stan wiedzy. Co piąty Amerykanin uważa, że sztuczna inteligencja (AI) ma świadomość – wynika z badania przeprowadzonego na reprezentatywnej grupie 3500 respondentów. Naukowców niepokoi niski stan wiedzy społeczeństwa o sztucznej inteligencji. Jacy Reese Anthis z Sentience Institute w Nowym Jorku wraz z współpracownikami zapytali reprezentatywną próbę 3500 osób w USA o postrzeganie AI i jej świadomości. W ankietach, przeprowadzonych w trzech falach między 2021 a 2023 rokiem, znalazły się pytania: „czy uważasz, że jakiekolwiek obecnie istniejące roboty/AI są świadome?” oraz „czy kiedykolwiek będzie możliwe, aby ta technologia osiągnęła świadomość?”. Autorzy badania argumentują, że chcieli zabrać informację o poziomie wiedzy na temat sztucznej inteligencji, by spróbować zrozumieć, jak opinia publiczna wpłynie na rozwój AI w przyszłości. W 2021 roku około 18 proc. respondentów stwierdziło, że istniejące systemy AI lub roboty są już świadome. Liczba ta wzrosła do 20 proc. w 2023 roku, kiedy to odbyły się dwie fale badania. Proste technologie Ponadto 30 proc. Amerykanów sądzi, że już istnieje sztuczna inteligencja zdolna do wykonania każdego zadania, które zazwyczaj wykonuje człowiek. Z kolei jedna na dziesięć osób zapytanych w 2023 roku uważała, że ChatGPT, uruchomiony pod koniec 2022 roku, jest świadomy. Naukowcy zwracają uwagę na to, że technologie, które dziś kryją się pod hasłem „sztuczna inteligencja”, są wciąż dość proste i w żaden sposób nie można mówić o tym, że AI posiada świadomość. Fakt, że społeczeństwo w to wierzy – ich zdaniem – jest bardzo groźny, bo oznacza, że ludzie mogą ufać „opiniom wydawanym przez AI” bardziej, niż opiniom pochodzącym od człowieka. Jacy Reese Anthis uważa, że społeczeństwo zbyt łatwo dało się nabrać na chwyt marketingowy zastosowany przez firmy technologiczne, polegający na wyolbrzymieniu umiejętności sztucznej inteligencji. „Wielkie firmy technologiczne sprzedają swoje produkty jako obdarzone większymi zdolnościami, niż sugeruje to podstawowa technologia. Myślę, że ludzie zbytnio skupili się na terminie „sztuczna inteligencja'” – powiedziała Anthis, cytowana przez „New Scientist”. I przypomniała, że termin „sztuczna inteligencja” powstał w latach 50. Powtarza cudze odpowiedzi „Ludzie często są pod wrażeniem tego, jak modele AI wypadają w testach IQ lub standaryzowanych egzaminach dla ludzi. Ale to często bardzo zły sposób myślenia o tych modelach, ponieważ AI po prostu powtarza odpowiedzi znalezione w swojej ogromnej bazie danych, na których została wytrenowana” – powiedziała Anthis. Częścią odpowiedzialności za zbyt duże kompetencje przypisywane AI przez społeczeństwo naukowcy obarczają media. Czytaj także: Nie tylko sztuczna, ale i towarzyska. Kolejne zastosowanie AI„Nie pomaga w tym rodzaj relacji medialnych, jakie widzieliśmy wokół dużych modeli językowych, z nadmiernie podekscytowanymi i pełnymi paniki doniesieniami o egzystencjalnych zagrożeniach ze strony superinteligencji” – powiedziała Kate Devlin z King's College London, cytowana przez New Scientist.