OpenAI stworzyło narzędzie umożliwiające oznaczanie tekstu stworzonego przez ChatGPT. Jest to jednak metoda, która ułatwiłaby przyłapywanie uczniów na przykład korzystających ze sztucznej inteligencji podczas pisania swoich zadań domowych – podaje techcrunch.com. Jak donosi The Wall Street Journal, na który powołuje się źródło, firma nadal rozważa, czy powinna udostępnić wspomniane narzędzie.
W oświadczeniu przekazanym techcrunch.com rzecznik OpenAI potwierdził, że firma sprawdza metodę znakowania wodnego tekstu. Przyjmuje ona jednak „przemyślane podejście” ze względu na „złożoność i prawdopodobny wpływ na szerszy ekosystem poza OpenAI” – czytamy.
Jak wspominał rzecznik firmy, „metoda znakowania wodnego tekstu, którą opracowujemy, jest obiecująca pod względem technicznym, ale wiąże się z istotnym ryzykiem, które rozważamy podczas badania alternatyw, w tym podatności na obchodzenie przez szkodliwe podmioty i potencjalnego nieproporcjonalnego wpływu na grupy, takie jak osoby nieanglojęzyczne” – dowiadujemy się.
Stworzone przez OpenAI narzędzie znacząco różniłoby się od dotychczasowych opcji wykrywania tekstu generowanego przez sztuczną inteligencję. Poprzednie próby w większości przypadków były bowiem nieskuteczne, w tym m.in. wcześniejszy detektor tekstu AI należący do OpenAI, który, jak przyznała sama firma, został wycofany ze względu na „niski wskaźnik dokładności” – pisze źródło.
Nowe narządzenie OpenAI miałoby skupiać się wyłącznie na wykrywaniu tekstu pochodzącego z ChatuGPT. Jego działanie polegałoby na dokonywaniu niewielkich zmian w sposobie, w jaki ChatGPT dobiera słowa, jednocześnie tworząc niewidoczny znak wodny, który mógłby zostać następnie wykryty przez inne, służące do tego narzędzie – donosi źródło.
Źródło wspomina, że firma zaktualizowała opublikowany w maju 2024 roku na blogu wpis, który dotyczył badań nad wykrywaniem treści generowanych przez sztuczną inteligencję. OpenAI poinformowało, że testowe znaki wodne okazały się „bardzo dokładne, a nawet skuteczne w przypadku zlokalizowanych manipulacji, takich jak parafrazowanie”, ale także „mniej odporne na globalne manipulacje; takie jak korzystanie z systemów tłumaczeń, przeformułowywanie za pomocą innego modelu generatywnego lub proszenie modelu o wstawienie specjalnego znaku między każdym słowem, a następnie usunięcie tego znaku”.
Ostatecznie OpenAI podkreśliło, że nowe narzędzie jest „łatwe do obejścia przez szkodliwe podmioty” i może „stygmatyzować wykorzystanie sztucznej inteligencji jako użytecznego narzędzia do pisania dla osób niebędących rodzimymi użytkownikami języka angielskiego” – czytamy. (ao)
Źródło: techcrunch.com, OpenAI says it’s taking a ‘deliberate approach’ to releasing tools that can detect writing from ChatGPT, Anthony Ha, 4.08.2024