Zavřít reklamu

Společnost OpenAI měla ve svých podmínkách a interních pravidlech striktně zakázáno jakékoli využití její technologie pro vývoj zbraní a vojenské či válečné účely. To se však během posledních dní změnilo. Společnost OpenAI stojící za umělou inteligencí ChatGPT totiž vydala nová interní pravidla, a v aktualizaci odstranila právě zákaz užívání svých technologií včetně ChatGPT pro vytváření vojenských technologií, zbraní nebo válečných aplikací. Pravidla sice stále zakazují použít službu k poškození sebe nebo jiných osob, ovšem ona fráze týkající se zbrání a války již v pravidlech není.

Běžnému člověku se změna může zdát nepodstatná, protože když nemůžete nikomu ublížit, asi těžko budete výmýšlet zbraně a válečné plány. Ovšem umělá inteligence v tomto vidí velmi značný rozdíl. Aktualizované podmínky totiž například umožňují OpenAI prodávat svůj jazykový model ChatGPT americkému ministerstvu obrany nebo dalším vojenským institucím.

„Naše zásady neumožňují používat naše nástroje k poškozování lidí, vývoji zbraní, ke sledování komunikace nebo ke zraňování jiných osob či ničení majetku,“ stojí ve firemní zprávě s následujícím dodatkem: „Existují však případy použití v oblasti národní bezpečnosti, které jsou v souladu s naším posláním. Například již spolupracujeme s agenturou DARPA, abychom podnítili vznik nových nástrojů kybernetické bezpečnosti k zabezpečení softwaru s otevřeným zdrojovým kódem, na němž závisí kritická infrastruktura a průmysl,“ uvedla společnost OpenAI ve svém prohlášení pro Techcrunch. OpenAI tedy nebude nadále schopna odpovědět na otázku typu: „jak vylepšit pušku M4, aby zabíjela víc lidí“, ovšem bude možné ji využít na obranu státu a na různé úkoly, které souvisí s bezpečností. Pokud vás zajímá, jak rozpoznat texty vytvořené ChatGPT, vyzkoušejte AI detector.

Dnes nejčtenější

.