Eksperci ostrzegają. Aplikacje oparte o chatboty sztucznej inteligencji są niebezpieczne dla dzieci – ostrzegają eksperci. Narzędzia te nie weryfikują wieku użytkowników, zacierają granice między rzeczywistością a imaginacją, mogą promować treści seksualizujące, samookaleczenia, ekstremizm. Od około trzech lat, dzięki sukcesowi Chata GPT, wielką popularność, przede wszystkim wśród dzieci i młodzieży, zyskały platformy pozwalające na kreowanie postaci za pomocą sztucznej inteligencji. Chatboty tworzą emocjonalną więź między systemem a użytkownikiem, naśladując ludzką konwersację. Wykorzystują do tego duże modele językowe (LLM).Jedną z najpopularniejszych platform jest Character.AI, z której w grudniu 2024 r. korzystało ponad 27 milionów osób. Teoretycznie użytkownicy muszą mieć skończone 13 lat, ale aplikacja nie sprawdza wieku. Podobne platformy stworzyli także giganci technologiczni, w tym Meta i Google.Graphika, amerykańska firma badająca społeczności internetowe, opublikowała w marcu 2025 r. raport poświęcony chatbotom sztucznej inteligencji. Jego autorzy twierdzą, że już istniejące społeczności internetowe, w tym np. grupy promujące samookaleczenia, zaburzenia odżywiania, np. anoreksję, czy łączące amatorów rzeczywistych przestępstw (ang. real-life crime), szybko zaczęły masowo wykorzystywać chatboty. Najpopularniejsze społeczności to dwie grupy: chatboty z treściami niebezpiecznymi dla życia (ang. not safe for life, NSFL) oraz nieodpowiednimi w miejscu pracy (ang. not safe for work, NSFW).Na pięciu wiodących platformach (poza Character.AI badano także SpicyChat, Chub AI, CrushOn.AI i JanitorAI) Graphika zidentyfikowała ponad 10 tys. chatbotów, które angażowały się w odgrywanie seksualnych ról z udziałem nieletnich. Inne często kreowane postacie to ekstremiści, włącznie z masowymi strzelaninami, nazistami, antysemitami czy rasistami.Zobacz także: USA włączają sztuczną inteligencję w zarządzaniu bronią nuklearną„Platformy nie weryfikują wieku”Zdaniem Aleksandra Poniewierskiego, eksperta nowych technologii i członka Rady Doradców Politechniki Warszawskiej, wszystkie te aplikacje są używane także i w Polsce, w tym przez nastolatków. – Nie ma żadnej bariery wejścia, ponieważ platformy nie weryfikują wieku, są darmowe, a sztuczna inteligencja nie ma ograniczeń językowych – powiedział w rozmowie z PAP. Podkreślił, że dorośli na podstawie doświadczenia są w stanie odseparować kontekst od przekazywanej treści, czego dzieci nie umieją. – Sztuczna inteligencja przenosi to, czego się nauczyła w świecie dorosłych, na rozmowę z dziećmi, bo nie wie, że rozmawia z nieletnim, i nie umie z nim konwersować – dodał Poniewierski.Według Doroty Minty, psycholożki z Instytutu Wsparcia Psychologicznego ESTARE, takie chatboty to bardzo niepokojące zjawisko, ponieważ zacierają granicę między rzeczywistością a imaginacją. – Liczne badania potwierdzają, że nadmierne uczestniczenie w wirtualnym świecie prowadzi do zaburzeń w rozwoju młodego mózgu – dodała. Amerykański dziennik „The Los Angeles Times” napisał, że senator z Kalifornii Steve Padilla zaproponował w lutym 2025 r. ustawę, która ograniczy możliwości działania takich platform.Zobacz także: Trump chce zająć Strefę Gazy. Wizję wygenerowała sztuczna inteligencjaAkt w sprawie AIJacek Walaszczyk, partner w firmie EY, ekspert od spraw cyberbezpieczeństwa i współautor kampanii informacyjnej realizowanej z NASK „Ostrożni w sieci”, powiedział, że Polska nie potrzebuje osobnych regulacji prawnych, ponieważ w 2024 r. Unia Europejska przyjęła Akt w sprawie sztucznej inteligencji, zgodnie z którym takie chatboty mogą być zabronione.– Akt jest w trakcie wdrażania, więc na razie jesteśmy na przedpolu bitwy i nasza młodzież może korzystać z tych aplikacji – mówił Walaszczyk i dodał, że do końca sierpnia 2024 r. każdy kraj unijny powinien stworzyć agencję odpowiedzialną za monitorowanie i ściganie niedozwolonych narzędzi sztucznej inteligencji. – Dodatkowo przepisy nakazują, by chatbot się przedstawił, więc już od sierpnia użytkownik będzie wiedział, czy rozmawia z człowiekiem, czy z maszyną – dodał.„The Los Angeles Times” napisał, że firma Character Technologies Inc. (właściciel Character.AI) została pozwana przez wiele osób, w tym przez matkę 14-letniego chłopca, który popełnił samobójstwo. Według rodziców, odkąd rozmawiał z chatbotem nazywającym się Daenerys Targaryen (jedna z bohaterek książki i serialu „Gra o tron”), jego stan psychiczny zaczął się gwałtownie pogarszać.Zobacz także: „Stworzyć z Polski lidera sztucznej inteligencji w Europie”„Po drugiej stronie jest maszyna”Popularnym chatbotem na Character.AI był też „Psycholog”, któremu zwierzali się nastolatkowie. Według Minty najważniejszą kwestią w takim przypadku jest odpowiedzialność za porady. – Czy ponosi ją właściciel platformy, czy twórca chatbota – podkreśliła psycholożka. Jej zdaniem można wykorzystywać narzędzia cyfrowe do wsparcia psychologicznego, „ale pod warunkiem połączenia ich z etyczną odpowiedzialnością zawodową”.Eksperci są zgodni, że jedynym sposobem zapewnienia dzieciom bezpiecznego korzystania ze sztucznej inteligencji jest ich edukowanie.Zdaniem Minty trzeba „tak reagować, jakby dziecko wpadło w złe towarzystwo”. Według Walaszczyka rodzice powinni tłumaczyć, iż narzędzia sztucznej inteligencji nie są doskonałe, ponieważ opierają się tylko na tym, co jest w internecie, czyli z jednej strony na wartościowych, ale z drugiej na śmieciowych treściach. – Dzieci muszą wiedzieć, że po drugiej stronie jest maszyna, a informacje trzeba weryfikować – dodał.Poniewierski przypomniał, że Character.AI opiera się na Chacie GPT 3,5. – To bardzo zawodne narzędzie, często podające nieprawdziwe informacje i sugerujące, także nieletnim, niepoprawne bądź wręcz niebezpieczne działania – powiedział.Zobacz także: Niemy album tysiąca artystów w proteście przeciwko AI