Motto Google „Nie bądź zły” już nie obowiązuje

0
3

Firma macierzysta Google, Alphabet, odrzuciła wieloletnią zasadę i zniosła zakaz wykorzystywania sztucznej inteligencji (AI) do opracowywania broni i narzędzi inwigilacji.

Alphabet konsekwentnie usuwał sekcję, podobnie jak poprzednie aplikacje, które „mogły wyrządzić szkody”.

W poście na blogu Google bronił zmiany, argumentując, że firmy i demokratyczne rządy muszą współpracować nad sztuczną inteligencją, która „wspiera bezpieczeństwo narodowe”.

Eksperci twierdzą, że sztuczna inteligencja może być szeroko wykorzystywana na polu walki – choć istnieją obawy również co do jej wykorzystania, zwłaszcza w odniesieniu do autonomicznych systemów uzbrojenia. – Na swoim blogu Google stwierdził, że demokracje powinny przewodzić w rozwoju sztucznej inteligencji, kierując się tym, co nazwał „podstawowymi wartościami”, takimi jak wolność, równość i poszanowanie praw człowieka.

„Wierzymy, że firmy, rządy i organizacje, które podzielają te wartości, powinny współpracować w celu stworzenia sztucznej inteligencji, która chroni ludzi, promuje globalny wzrost i wspiera bezpieczeństwo narodowe”

Starszy wiceprezes James Manyika i Demis Hassabis, którzy kierują laboratorium sztucznej inteligencji Google DeepMind – stwierdzili, że pierwotne zasady firmy dotyczące sztucznej inteligencji opublikowane w 2018 r. muszą zostać zaktualizowane wraz z rozwojem technologii.

„Morderstwo na dużą skalę”
W ostatnim czasie rośnie świadomość militarnego potencjału AI.

W styczniu posłowie argumentowali, że konflikt na Ukrainie pokazał, że technologia „zapewnia poważne przewagi wojskowe na polu bitwy” W miarę jak sztuczna inteligencja staje się coraz bardziej powszechna i wyrafinowana, „zmieni sposób, w jaki działa obrona, od zaplecza po linię frontu” – napisała posłanka Emma Lewell-Buck, która przewodniczyła niedawnemu raportowi Izby Gmin na temat wykorzystania sztucznej inteligencji przez brytyjskie wojsko.

Teraz już wiemy, dlaczego „prezydent pokoju” Donald Trump chce wydać 500 miliardów dolarów na budowę sztucznej inteligencji w Stanach Zjednoczonych.

Jednak wśród ekspertów i profesjonalistów zajmujących się sztuczną inteligencją toczy się debata na temat tego, w jaki sposób należy szeroko zarządzać potężną nową technologią, jak daleko należy pozwolić na komercyjne zyski w celu określenia jej kierunku i jak najlepiej chronić się przed zagrożeniami dla ludzkości w ogóle.

Największe zaniepokojenie budzi potencjał broni napędzanej sztuczną inteligencją, zdolnej do autonomicznego przeprowadzania śmiercionośnych działań, a działacze twierdzą, że pilnie potrzebne są kontrole. Zegar Zagłady (link do BBC) – symbolizujący to, jak blisko zniszczenia jest ludzkość – przytoczył ten problem w swojej najnowszej ocenie zagrożeń stojących przed ludzkością.

„Systemy, które włączają sztuczną inteligencję do celów wojskowych, były używane na Ukrainie i Bliskim Wschodzie, a coraz więcej krajów dąży do integracji sztucznej inteligencji ze swoimi siłami zbrojnymi”

„Takie wysiłki rodzą pytania o to, w jakim stopniu maszyny będą mogły podejmować decyzje wojskowe – nawet decyzje, które mogą zabijać na dużą skalę”

W podobnym tonie wypowiedziała się Catherine Connolly z organizacji Stop Killer Robots.

„Pieniądze, które widzimy, są inwestowane w autonomiczną broń i wykorzystanie takich rzeczy, jak systemy celowania AI, są niezwykle niepokojące” – powiedziała w rozmowie z „Guardianem”.

„Nie bądź zły”
Pierwotnie, na długo przed obecną falą zainteresowania etyką AI, założyciele Google, Sergei Brin i Larry Page, powiedzieli, że ich motto dla firmy brzmi „nie bądź zły”.

Kiedy w 2015 roku firma została zrestrukturyzowana pod nazwą Alphabet Inc, spółka macierzysta przeszła na „Rób to, co należy”. Od tego czasu pracownicy Google czasami sprzeciwiali się podejściu przyjętemu przez ich menedżerów.

W 2018 roku firma nie przedłużyła umowy na prace nad sztuczną inteligencją z amerykańskim Pentagonem po zwolnieniach i petycji podpisanej przez tysiące pracowników. Obawiali się, że „Projekt Maven” jest pierwszym krokiem w kierunku wykorzystania sztucznej inteligencji do celów śmiercionośnych.

Blog został opublikowany tuż przed raportem finansowym Alphabet na koniec roku, pokazującym wyniki słabsze od oczekiwań rynku, uderzając w cenę akcji. Stało się tak pomimo 10-procentowego wzrostu przychodów z reklamy cyfrowej, która była największym przychodem, wzmocnionym przez wydatki na wybory w USA.

W swoim raporcie finansowym firma podała, że w tym roku wyda 75 miliardów dolarów na projekty AI, czyli o 29% więcej niż oczekiwali analitycy z Wall Street.

Firma inwestuje w infrastrukturę do zasilania sztucznej inteligencji, badań nad sztuczną inteligencją i aplikacji, takich jak wyszukiwanie oparte na sztucznej inteligencji.

Brak postów do wyświetlenia