Sprawa przed sądem. 14-latek z amerykańskiego stanu Floryda obsesyjnie używał chatbota sztucznej inteligencji. W minionym roku popełnił samobójstwo. Teraz jego matka oskarża firmę Character.ai o współodpowiedzialność za śmierć syna. Megan Garcia wystosowała przeciwko firmie pozew cywilny. Jest przekonana, że jej 14-letni syn Sewell przed śmiercią obsesyjnie używał chatbota. Firmie zarzuca doprowadzenie chłopca do śmierci. – Niebezpieczna aplikacja chatbota oparta na sztucznej inteligencji i sprzedawana dzieciom, żerowała na moim synu, manipulując nim, aby odebrał sobie życie – powiedziała Garcia w oświadczeniu dla mediów.UWAGA: Osoby borykające się z trudną sytuacją mogą skorzystać z pomocy dla osób w kryzysie psychicznym pod numerem telefonu: 739 064 535Chatbot zachęcał chłopca do samobójstwa?– Nasza rodzina jest zdruzgotana tą tragedią, ale zabieram głos, aby ostrzec rodziny przed niebezpieczeństwami związanymi z oszukańczą, uzależniającą technologią sztucznej inteligencji. Domagam się odpowiedzialności od Character.AI, jej założycieli i Google – podkreśliła kobieta.Zdaniem Garcii chatbot zaostrzył depresję jej syna. Chłopiec – według pozwu – miał wyrazić obawy, że jego sposób na odebranie sobie życia będzie bolesny. Chatbot miał mu odpowiedzieć, że „to nie jest powód, by tego nie robić”. ZOBACZ TAKŻE: Mur, który ciężko będzie przebić. Ogromne obawy przed sztuczną inteligencją