Zaměstnanci společnosti Google požadují omezení vojenského použití umělé inteligence, podobně jako v případě antropického konfliktu

6

Rostoucí napětí mezi Pentagonem a vývojáři umělé inteligence eskaluje a zaměstnanci Googlu se připojují k výzvám po přísných etických hranicích při používání umělé inteligence pro vojenské účely. Více než 100 zaměstnanců společnosti Google pracujících na technologiích umělé inteligence poslalo dopis vedoucím pracovníkům společnosti, v němž odrážejí obavy dříve vznesené společností Anthropic a požadují, aby Google stanovil jasné červené čáry ve svých vládních zakázkách.

Zvyšující se tlak na technologické společnosti

Kontroverze se točí kolem toho, že ministerstvo obrany USA trvá na neomezeném přístupu k modelům umělé inteligence, včetně AI Gemini od společností Google a Anthropic, pro účely, které by mohly zahrnovat hromadné sledování občanů a nasazení v plně autonomních zbraňových systémech. Společnost Anthropic se těmto požadavkům brání tím, že hledá záruky, že její technologie nebudou použity v neetických nebo škodlivých aplikacích. Tento odpor nyní vyvolává podobné interní debaty u jiných technologických gigantů.

Dopis zaměstnanců společnosti Google adresovaný hlavnímu vědci Jeffu ​​Deanovi konkrétně žádá společnost, aby zabránila armádě používat AI Gemini pro domácí sledování nebo ve zbraňových systémech fungujících bez lidského zásahu. Vyjádřili touhu „být hrdí na svou práci“ a naznačili, že účast na takových projektech by poškodila morálku a etické postavení společnosti.

Širší oborové problémy

Toto není ojedinělý případ. Asi 50 zaměstnanců OpenAI spolu se 175 kolegy z Googlu veřejně kritizovali vyjednávací taktiku Pentagonu a vyzvali představitele odvětví, aby se sjednotili a odmítli současné požadavky. Ministerstvo obrany má v současné době smlouvu na 200 milionů dolarů se společností Anthropic, která využívá svůj významný vliv na krajinu AI.

Podstatou problému je, zda by soukromé společnosti měly při práci s potenciálně nebezpečnými technologiemi upřednostňovat zisky ze státních zakázek před etickými ohledy. Pokud se Pentagonu podaří zajistit neomezený přístup, může se stát nebezpečným precedentem tím, že bude normalizováno používání AI pro nekontrolované sledování a autonomní válčení.

Tato situace vyvolává zásadní otázku: Je možné sladit vývoj umělé inteligence s odpovědným řízením a lidskými právy? Odpověď bude záviset na tom, zda se technologické společnosti rozhodnou upřednostnit etické hranice před krátkodobým finančním ziskem.

Patová situace bude pravděpodobně pokračovat a potenciálně přebudovat vztah mezi armádou a průmyslem umělé inteligence, což si vynutí větší reflexi etických důsledků pokročilých technologií.