niedziela, 17 listopada, 2024
Strona głównaAktualnościBrytyjska agencja tworzy narzędzia do testowania bezpieczeństwa AI

Brytyjska agencja tworzy narzędzia do testowania bezpieczeństwa AI

U.K. Safety Institute, niedawno utworzony brytyjski organ ds. bezpieczeństwa sztucznej inteligencji, zaprezentował zestaw narzędzi, który został stworzony w celu „wzmocnienia bezpieczeństwa sztucznej inteligencji”. Ma on ułatwić przemysłowi, organizacjom badawczym oraz środowiskom akademickim opracowanie ocen AI – informuje techcrunch.com. 

Zestaw narzędzi Inspect ma na celu ocenę możliwości modeli sztucznej inteligencji, w tym ich podstawowej wiedzy i zdolności rozumowania, oraz wygenerowanie oceny na podstawie wyników – czytamy. 

Instytut Bezpieczeństwa w komunikacie prasowym stwierdził, że Inspect oznacza „pierwszy raz, kiedy platforma testowania bezpieczeństwa AI, której przewodzi organ wspierany przez państwo, została udostępniona do szerszego użytku” – pisze źródło. 

Ian Hogarth, przewodniczący Safety Institute, w oświadczeniu wyraził nadzieję, że „globalna społeczność AI będzie korzystać z Inspect nie tylko do przeprowadzania własnych testów bezpieczeństwa modeli, ale także do pomocy w dostosowywaniu i rozwijaniu platformy open source”, co umożliwi tworzenie wysokiej jakości oceny we wszystkich dziedzinach – czytamy. 

Jak podaje źródło, testy porównawcze sztucznej inteligencji są trudne, ponieważ najbardziej wyszukane modele AI są czarnymi skrzynkami, których infrastruktura, dane treningowe i inne kluczowe szczegóły są trzymane w tajemnicy przez tworzące je firmy. Inspect radzi sobie z tym wyzwaniem dzięki rozszerzalności i możliwości rozbudowy o nowe techniki testowania.

Deborah Raj, pracownik naukowy Mozilli i znany etyk AI, w poście na X nazwał Inspect „świadectwem potęgi publicznych inwestycji w narzędzia open source na rzecz odpowiedzialności AI”. (ao)

ZOSTAW KOMENTARZ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj