AI Safety Summit: światowe społeczności zdają sobie sprawę z zagrożeń związanych z rozwojem AI

W dniach 1-2 listopada w Bletchley, Anglia, odbył się pierwszy globalny szczyt poświęcony kwestiom związanym z bezpieczeństwem sztucznej inteligencji (SI). Wydarzenie zgromadziło około 100 uczestników z różnych stron świata: polityków, liderów firm technologicznych, naukowców i ekspertów.

Głównym celem szczytu było inicjowanie globalnej dyskusji na temat przyszłych regulacji dotyczących SI. Uczestnicy omawiali potencjalne zagrożenia związane z rozwojem SI, takie jak zagrożenie bezpieczeństwa narodowego, zagrożenie dla demokracji (tak jakby inne ustroje polityczne nie byłyby zagrożone) i zagrożenie dla praw człowieka (przykładem jest używanie SI w kampaniach wyborczych).

Uczestnicy szczytu zgodzili się, że ważne jest opracowanie międzynarodowych regulacji dotyczących SI. W tym celu utworzono Globalną Radę Doradczą ds. Regulacji SI (GRDRSI), wzorowaną na Międzyrządowym Panelu ds. Zmian Klimatu (IPCC).

Na szczycie, została podpisana deklaracja, w której 28 państw zobowiązało się do współpracy w celu kontroli zagrożeń wynikających z rozwoju sztucznej inteligencji. Deklaracja obejmuje zobowiązania do współpracy w zakresie badań nad sztuczną inteligencją, współpracy w zakresie opracowania międzynarodowych regulacji dotyczących SI oraz współpracy w zakresie monitorowania i reagowania na zagrożenia związane z rozwojem sztucznej inteligencji. Co prawda nie jesteśmy w stanie w pełni przewidzieć wszystkich zagrożeń związanych z rozwojem SI, jednak lepsze to niż nic. Sam fakt podpisania takiego dokumentu świadczy o świadomości konsekwencji użycia SI.

AI Safety Summit stanowi ważny krok w kierunku globalnej regulacji sztucznej inteligencji. Podpisana deklaracja przez 28 państw stanowi sygnał, że społeczności na całym świecie zdają sobie sprawę z potencjalnych zagrożeń związanych z rozwojem SI i są gotowe podjąć działania mające na celu ich zminimalizowanie.

Najważniejsze wnioski płynące ze szczytu mówią, że sztuczna inteligencja to potężna technologia, niosąca za sobą liczne korzyści, ale jednocześnie związana z potencjalnymi zagrożeniami. Niezbędne jest ustanowienie międzynarodowych regulacji dotyczących sztucznej inteligencji, zapewniających ochronę przed zagrożeniami i promujących odpowiedzialny rozwój tej technologii. W procesie regulacyjnym sztucznej inteligencji kluczową rolę powinni odgrywać wszyscy interesariusze, w tym politycy, przedstawiciele firm technologicznych, naukowcy i eksperci.

Mimo wszystko odnoszę wrażenie, że to nie SI powinniśmy się bać, ale ludzi, którzy będą ją wykorzystywać do różnych celów. Przepisy to tylko przepisy, nie każdy będzie ich przestrzegał (są i tacy, którzy są ponad nimi), bo nawet dzisiaj tak nikt nie robi. Żadna regulacja, przepis, ustawa nie są w stanie powstrzymać człowieka przed robieniem tego co według niego jest słuszne. Z drugiej strony chodzi mi też po głowie inne pytanie: co nam po tych aktach jeśli (albo kiedy) sztuczna inteligencja rozwinie się do tego stopnia, że nie będziemy w stanie jej kontrolować? Dlaczego stworzone przez nas regulacje miałby jej dotyczyć skoro to ona będzie mogła kontrolować nas?

Źródła:

World leaders, top AI companies set out plan for safety testing of frontier as first global AI Safety Summit concludes – GOV.UK (www.gov.uk)

AI Safety Summit 2023 – GOV.UK (www.gov.uk)

AI Safety Summit| AISS 2023

Pomysł nagłówka: Bard, model SI Google