Pracownicy #Google żądają ograniczeń w zakresie wojskowego wykorzystania sztucznej inteligencji, na wzór konfliktów antropicznych
Rosnące napięcia między Pentagonem a twórcami sztucznej inteligencji nasilają się, a pracownicy Google przyłączają się do apeli o rygorystyczne granice etyczne w wykorzystywaniu sztucznej inteligencji do celów wojskowych. Ponad 100 pracowników Google pracujących nad technologiami sztucznej inteligencji wysłało list do kadry kierowniczej firmy, powtarzając obawy wyrażone wcześniej przez Anthropic i żądając, aby Google określił jasne czerwone granice w swoich kontraktach rządowych.
Zwiększanie presji na firmy technologiczne
Kontrowersje koncentrują się wokół nalegań Departamentu Obrony USA na nieograniczony dostęp do modeli sztucznej inteligencji, w tym AI Gemini od Google i Anthropic, do celów, które mogą obejmować masową inwigilację obywateli i wdrażanie w pełni autonomicznych systemów uzbrojenia. Firma Anthropic sprzeciwia się tym żądaniom, starając się zapewnić, że jej technologia nie będzie wykorzystywana do nieetycznych lub szkodliwych zastosowań. Ten opór wywołuje obecnie podobne wewnętrzne debaty u innych gigantów technologicznych.
W liście pracowników Google, skierowanym do głównego naukowca Jeffa Deana, w szczególności zwracano się do firmy o uniemożliwienie wojsku wykorzystywania sztucznej inteligencji Gemini do nadzoru domowego lub w systemach uzbrojenia działających bez interwencji człowieka. Wyrazili chęć „bycia dumnymi ze swojej pracy”, sugerując, że udział w takich projektach zaszkodzi morale i pozycji etycznej firmy.
Szersze problemy branżowe
To nie jest odosobniony przypadek. Około 50 pracowników OpenAI wraz ze 175 kolegami z Google skrytykowało publicznie taktykę negocjacyjną Pentagonu, wzywając liderów branży do zjednoczenia się i odrzucenia obecnych żądań. Departament Obrony ma obecnie kontrakt o wartości 200 milionów dolarów z firmą Anthropic, która wykorzystuje jej znaczący wpływ na krajobraz sztucznej inteligencji.
Sedno problemu polega na tym, czy prywatne firmy powinny przedkładać zyski z kontraktów rządowych nad względy etyczne podczas pracy z potencjalnie niebezpiecznymi technologiami. Jeśli Pentagonowi uda się zapewnić nieograniczony dostęp, może to stworzyć niebezpieczny precedens, normalizując wykorzystanie sztucznej inteligencji do niekontrolowanego nadzoru i autonomicznych działań wojennych.
Sytuacja ta rodzi zasadnicze pytanie: Czy można pogodzić rozwój sztucznej inteligencji z odpowiedzialnym zarządzaniem i prawami człowieka? Odpowiedź będzie zależała od tego, czy firmy technologiczne zdecydują się przedkładać granice etyczne nad krótkoterminowe zyski finansowe.
Spór prawdopodobnie będzie się utrzymywał, potencjalnie zmieniając relacje między wojskiem a branżą sztucznej inteligencji, wymuszając większą refleksję na temat etycznych implikacji zaawansowanych technologii.

























