Sztuczna inteligencja (5)
X X X
Dopóki nie istnieją regulacje, prawa rynku nadal obowiązują, swobodne zasady dotyczące AI, niezależnie od tego, jak dobre są intencje gigantów korporacyjnych. Oznacza to: im szybciej, a co za tym idzie, im bardziej beztrosko rozwijana jest technologia, tym lepiej. Ale jak to często bywa w biznesie: lepiej dla wszystkich? Czy tylko dla niektórych? Oczywistym jest, że sztuczna inteligencja niesie ze sobą niebezpieczeństwa, przed którymi należy ostrzegać. Ale zagrożenie dla ludzkości może być również po prostu strategią marketingową. 17. listopada 2023 r. w Ermitażu, w budynku Sztabu Generalnego odbyła się dyskusja panelowa Nowoczesne technologie – motory integracji kultury ze społeczeństwem informacyjnym w ramach IX Międzynarodowego Forum Kultury w Petersburgu – Forum Zjednoczonych Kultur. Organizatorem wydarzenia była Rosyjska Biblioteka Państwowa, a moderatorem spotkania – dyrektor generalny Leninki – Wadim Duda. Dyrektor generalny Białoruskiej Biblioteki Narodowej, Wadim Gigin podkreślił, iż sztuczna inteligencja, jak każda innowacja, niesie ze sobą zarówno zagrożenia, jak i szanse: „Musimy nadać sens wykorzystaniu sztucznej inteligencji. Na przykład pracując z tablicami dokumentów, czyli pracujemy nad różnymi podejściami do digitalizacji, tworząc wygodne platformy, wygodne interfejsy, dzięki którym można pracować w wirtualnej czytelni. Sztuczna inteligencja może wzmocnić nie tylko kulturę czytania, ale także kulturę wyboru książek. Naszym zadaniem, jako profesjonalistów, jest przekształcenie sztucznej inteligencji w pozytywny plan działania dla czytelników”.
Geoffry Hinton, od dawna czołowy naukowiec w dziedzinie uczenia maszynowego, mówi dziś, że jakaś część samego siebie żałuje pracy swojego życia. Oprócz niego pod oświadczeniem Centrum Bezpieczeństwa AI podpisało się także wielu innych naukowców. Na przykład Frank Hutter, kierownik laboratorium uczenia maszynowego na Uniwersytecie we Fryburgu. Są to ludzie, których ostrzeżenia musimy traktować poważnie. Nie mają żadnych korzyści ekonomicznych i nie mogą niczego zyskać ani stracić poprzez marketing sztucznej inteligencji. Ale są też inni, którzy ostrzegają przed zagrożeniami, związanymi ze sztuczną inteligencją. Piosenkarka Grimes, właśc. Claire Boucher, daje swoją barwę AI do sztucznie generowanych piosenek. Pozwala na kopiowanie swojego głosu przez sztuczną inteligencję i wykorzystywanie go do produkcji piosenek – pod dwoma warunkami: żadnych wulgarnych i niedozwolonych prawnie treści oraz nieskrępowana możliwość zarabiania pieniędzy. „To, jak rozwiną się technologie, zależy od nas z pomocą konsumentów treści. Sztucznej inteligencji nie możemy niczego przedstawić, wszystkie pytania musimy zadać sobie sami. To niezwykle symboliczne, iż w sercu kulturalnej stolicy mamy okazję porozmawiać o nowoczesnych technologiach, z uwzględnieniem ich aspektów etycznych i prawnych. Sieć neuronowa nie stanie się żywą, świadomą istotą. Tylko my posiadamy inteligencję, empatię i wolę. To wszystko, co stanowi istotę naszego życia, pozwala nam tworzyć dzieła kultury i sztuki.”
Ksenia Kuzniecowa, dyrektor ds. komunikacji w SberAI i kierownik działu technologii informacyjno-komunikacyjnych w MISiS: „Neuronowe sieci, sztuczna inteligencja jest tutaj, nigdzie się nie wybiera. Nie pozostaje nam nic innego, jak się do nich dostosować. Sieć neuronowa to nasz asystent, którego nie musisz się bać. Obecny problem polega na tym, że ludzie nie do końca wiedzą, jak korzystać ze sztucznej inteligencji, dlatego Akademia NADA stara się rozwiązać ten problem. Dyrektor Generalny Akademii NADA i współwłaściciel agencji cyfrowej Love.Soft.Digital, Jegor Jaroszewicz. Przewodnicząca Niemieckiej Rady Etyki, Alena Buyx wzywa obecnie do wstrzymania rozwoju sztucznej inteligencji, aby w pierwszej kolejności można było rozważyć ryzyko etyczne i społeczne.
Przed nieuregulowanym rozwojem sztucznej inteligencji ostrzegają obecnie także eksperci IT z non-profit Center for AI Safety. Ich oświadczenie, podpisane przez kilkuset badaczy, zawiera tylko jedno zdanie: „Ograniczenie ryzyka wyginięcia, które mogłoby nastąpić z powodu sztucznej inteligencji, powinno być globalnym priorytetem, obok innych zagrożeń, takich jak pandemie i wojna nuklearna” – stwierdziło Centrum Bezpieczeństwa AI w owym oświadczeniu na swojej stronie internetowej. Pod dokumentem podpisali się eksperci z zakresu AI, a także specjaliści z zakresu informatyki, ekonomii, matematyki i filozofii. Wśród nich jest dyrektor generalny Open AI i programista – Sam Altman.
1. i 2. listopada 2023 roku giganci technologiczni, eksperci i politycy dyskutowali o tym, jak posunąć się dalej w swoim życiu zawodowym. Miliarder Elon Musk, znany ze swoich projektów eksploracji kosmosu, zaproponował utworzenie swego rodzaju niezależnego arbitrażu, który kontrolowałby wykorzystanie sztucznej inteligencji przez firmy technologiczne. A jeśli sędzia będzie miał jakiekolwiek wątpliwości, podniesie alarm. I według Muska możemy zacząć się martwić już teraz: „Po raz pierwszy w historii ludzkości mamy do czynienia z czymś, co będzie znacznie inteligentniejsze od nas. Nie jest więc dla mnie jasne, czy rzeczywiście możemy kontrolować coś takiego, ale myślę, że możemy starać się skierować sprawę w kierunku korzystnym dla ludzkości. Uważam, że jest to jedno z egzystencjalnych zagrożeń, przed którymi stoimy, potencjalnie najpoważniejsze”.
Na marginesie tego szczytu nawet Chiny zgodziły się współpracować ze Stanami Zjednoczonymi, Unią Europejską i innymi krajami w celu wspólnego zarządzania ryzykiem, związanym ze sztuczną inteligencją. 28 krajów podpisało pierwszą wspólną deklarację w sprawie zagrożeń, związanych ze sztuczną inteligencją. W oświadczeniu końcowym stwierdzono, że 28 państw chce współpracować, aby zrozumieć ryzyko i zarządzać nim. Nie zapadły jednak żadne decyzje o podjęciu konkretnych kroków w kierunku wielostronnych regulacji.
Roman Boryczko,
luty 2024

