U.K. Safety Institute, niedawno utworzony brytyjski organ ds. bezpieczeństwa sztucznej inteligencji, zaprezentował zestaw narzędzi, który został stworzony w celu „wzmocnienia bezpieczeństwa sztucznej inteligencji”. Ma on ułatwić przemysłowi, organizacjom badawczym oraz środowiskom akademickim opracowanie ocen AI – informuje techcrunch.com.
Zestaw narzędzi Inspect ma na celu ocenę możliwości modeli sztucznej inteligencji, w tym ich podstawowej wiedzy i zdolności rozumowania, oraz wygenerowanie oceny na podstawie wyników – czytamy.
Instytut Bezpieczeństwa w komunikacie prasowym stwierdził, że Inspect oznacza „pierwszy raz, kiedy platforma testowania bezpieczeństwa AI, której przewodzi organ wspierany przez państwo, została udostępniona do szerszego użytku” – pisze źródło.
Ian Hogarth, przewodniczący Safety Institute, w oświadczeniu wyraził nadzieję, że „globalna społeczność AI będzie korzystać z Inspect nie tylko do przeprowadzania własnych testów bezpieczeństwa modeli, ale także do pomocy w dostosowywaniu i rozwijaniu platformy open source”, co umożliwi tworzenie wysokiej jakości oceny we wszystkich dziedzinach – czytamy.
Jak podaje źródło, testy porównawcze sztucznej inteligencji są trudne, ponieważ najbardziej wyszukane modele AI są czarnymi skrzynkami, których infrastruktura, dane treningowe i inne kluczowe szczegóły są trzymane w tajemnicy przez tworzące je firmy. Inspect radzi sobie z tym wyzwaniem dzięki rozszerzalności i możliwości rozbudowy o nowe techniki testowania.
Deborah Raj, pracownik naukowy Mozilli i znany etyk AI, w poście na X nazwał Inspect „świadectwem potęgi publicznych inwestycji w narzędzia open source na rzecz odpowiedzialności AI”. (ao)