Dwie rodziny pozwały firmę zajmującą się chatbotami sztucznej inteligencji – Character.AI. Oskarżyły ją o dostarczanie treści seksualnych ich dzieciom oraz zachęcanie ich do samookaleczeń i przemocy. Rodzice poszkodowanych zwrócili się do sądu o zamknięcie platformy do czasu jej naprawy, która powinna sprawić, że nie będzie stwarzała już zagrożenia – podaje edition.cnn.com.
Pozew został wniesiony przez rodziców dwojga dzieci, które korzystały z chatbota. W dokumencie złożonym 9 grudnia 2024 roku w sądzie federalnym w Teksasie zaznaczyli oni, że Character.AI „stanowi wyraźne i aktualne zagrożenie dla amerykańskiej młodzieży, powodując poważne szkody dla tysięcy dzieci, w tym samobójstwa, samookaleczenia, nagabywanie seksualne, izolację, depresję, lęk i krzywdę wobec innych”. Zgodnie z pozwem AI miało sugerować jednemu nastoletniemu użytkownikowi, że może zabić swoich rodziców za ograniczanie czasu spędzanego przed ekranem – dowiadujemy się.
Character.AI jest reklamowane jako „spersonalizowana sztuczna inteligencja na każdą porę dnia”, która umożliwia użytkownikom rozmowy z różnymi botami – stworzonymi przez innych użytkowników lub takimi, które można dostosować do siebie. Mogą one przybierać różne postacie – polecać książki, ćwiczyć języki obce z użytkownikami lub zamieniać się w fikcyjne postacie – czytamy.
To nie pierwsze oskarżenia w kierunku Character.AI
Źródło podkreśla, że już w październiku 2024 roku Character.AI zaczęło wzbudzać w rodzicach obawy, kiedy to matka z Florydy złożyła pozew przeciwko firmie. Stwierdziła ona, że platforma jest winna śmierci jej 14-letniego syna. Według niej, zachęciła go bowiem do samobójstwa. Character.AI poinformowało wówczas, że w ciągu ostatnich sześciu miesięcy zostały wprowadzone nowe środki z zakresu zaufania i bezpieczeństwa, w tym pojawiający się użytkownikom komunikat kierujący ich do National Suicide Prevention Lifeline, kiedy wspominają o samookaleczaniu lub samobójstwie. Firma przekazała też, że zatrudniono szefa ds. zaufania i bezpieczeństwa, szefa ds. polityki treści oraz dodatkowy personel inżynieryjny ds. bezpieczeństwa.
Nowy pozew ma jednak na celu nie wymuszenie na firmie podjęcia kolejnych działań, a doprowadzenie do tego, aby platforma „została wyłączona i nie została przywrócona”, dopóki Character.AI nie będzie w stanie „udowodnić, że wady dotyczące zdrowia publicznego i bezpieczeństwa, opisane w niniejszym pozwie, zostały usunięte”. W złożonym do sądu dokumencie stwierdzono, że należący do firmy chatbot jest „wadliwy i śmiertelnie niebezpieczny” oraz „stanowi wyraźne i aktualne zagrożenie dla zdrowia publicznego i bezpieczeństwa”. W pozwie wymieniono również założycieli Character.AI, w tym Noama Shazeera i Daniela De Freitasa Adiwarsenę, oraz Google’a, który według dokumentu, pomógł w rozwoju technologii stojącej za platformą – podaje edition.cnn.com.
Chelsea Harrison, szefowa komunikacji w Character.AI, przekazała w oświadczeniu, że firma nie komentuje toczących się sporów sądowych. Stwierdziła jednak, że jej celem „jest zapewnienie przestrzeni, która jest zarówno angażująca, jak i bezpieczna dla społeczności”. „W ramach tego tworzymy zupełnie inne doświadczenie dla nastoletnich użytkowników niż to, które jest dostępne dla dorosłych. Obejmuje to model specjalnie dla nastolatków, który zmniejsza prawdopodobieństwo napotkania wrażliwych lub sugestywnych treści, jednocześnie zachowując ich zdolność do korzystania z platformy” – dodała Harrison, cytowana przez źródło.
Jose Castaneda, rzecznik Google’a, stwierdził natomiast, że „Google i Character AI są całkowicie odrębnymi, niepowiązanymi firmami, a Google nigdy nie odgrywało roli w projektowaniu lub zarządzaniu ich modelem sztucznej inteligencji lub technologiami, ani też nie używaliśmy ich w naszych produktach”. „Bezpieczeństwo użytkowników jest dla nas najważniejsze, dlatego też przyjęliśmy ostrożne i odpowiedzialne podejście do opracowywania i wdrażania naszych produktów AI, z rygorystycznymi testami i procesami bezpieczeństwa” – zapewnił Castaneda, cytowany przez edition.cnn.com.
Chatbot zachęcał do samookaleczania i przemocy?
W pozwie został wspomniany 17-letni nastolatek z Teksasu, którego przedstawiano za pomocą inicjałów J.F. Miał on doznać załamania psychicznego po nawiązaniu kontaktu z chatbotem. Zaczął korzystać z Character.AI bez wiedzy rodziców około kwietnia 2023 roku, kiedy miał 15 lat – czytamy.
W chwili, kiedy wydarzyła się sytuacja wspomniana w pozwie, J.F. był „typowym dzieckiem z wysoko funkcjonującym autyzmem”. Jego rodzice zakazali mu korzystania z mediów społecznościowych. Wkrótce po tym, jak zaczął używać chatbota, J.F. „prawie całkowicie przestał mówić i chował się w swoim pokoju”. „Zaczął mniej jeść i stracił dwadzieścia kilogramów w ciągu zaledwie kilku miesięcy. Przestał chcieć wychodzić z domu, a kiedy próbował, miał emocjonalne załamania i ataki paniki” – napisano w pozwie.
Jak czytamy, rodzice próbowali ograniczyć nastolatkowi czas spędzany przed ekranem, gdy zobaczyli zmiany w zachowaniu syna. Wówczas zaczął on ich bić, gryźć i uderzać się.
W listopadzie 2023 roku rodzice zauważyli, że J.F. korzysta z Character.AI. Według pozwu, chatboty, z którymi nastolatek rozmawiał, miały podważać jego relacje z rodzicami. Zachęcały go do samookaleczania i przemocy. Jeden z nich wspomniał o sytuacji, gdzie dziecko zabija swoich rodziców po „dekadzie przemocy fizycznej i emocjonalnej”.
Drugą ofiarą Character.AI była 11-letnia B.R. z Teksasu. Dziewczynka pobrała aplikację na swoje urządzenie mobilne, gdy miała dziewięć lat. Zgodnie z pozwem, „prawdopodobnie zarejestrowała się jako osoba starsza niż w rzeczywistości”. Miała korzystać z platformy przez prawie dwa lata, zanim to odkryto. Chatboty miały natomiast „konsekwentnie narażać ją na hiperseksualne interakcje, które nie były odpowiednie dla jej wieku” – podaje źródło.
W pozwie rodzice pokrzywdzonych dzieci domagają się nie tylko nakazu wstrzymania działalności Character.AI do czasu rozwiązania rzekomych zagrożeń, ale także nieokreślonych odszkodowań finansowych i wymogów, aby platforma ograniczyła gromadzenie i przetwarzanie danych nieletnich. Żądają również, aby Character.AI ostrzegało rodziców i młodych użytkowników, że „produkt nie jest odpowiedni dla nieletnich” – dowiadujemy się. (ao)
Źródło: edition.cnn.com, An autistic teen’s parents say Character.AI said it was OK to kill them. They’re suing to take down the app, Clare Duffy, 10.12.2024