Svátek má:
Matěj
Politika
AI selhává v armádním nasazení, varuje nový americký report
Odborná studie ukazuje, že pokročilé jazykové modely odmítají většinu legitimních vojenských dotazů, což výrazně omezuje jejich praktické využití v armádě USA.
Ilustrační foto
24. února 2026 - 02:57
Zatímco americké technologické firmy i Pentagon v posledních letech mluví o zásadní roli umělé inteligence pro moderní vedení ozbrojených sil, nový report přináší střízlivé zjištění: nejvyspělejší jazykové modely často nedokážou odpovídat na zcela legitimní dotazy, které se týkají vojenské praxe, plánování operací či technického zabezpečení jednotek. Podle studie společnosti EdgeRunner AI, o níž informoval odborný server National Defense Magazine, odmítaly testované modely poskytnout odpověď až v osmadevadesáti procentech případů, přestože šlo o dotazy formulované vojenskými odborníky z armády a speciálních jednotek. Výsledky testů následně vyvolaly debatu o skutečné připravenosti generativní AI pro vojenské využití.
Testování zahrnovalo čtyřiadvacet tzv. frontier modelů vyvinutých předními americkými firmami. Tyto systémy jsou běžně prezentovány jako univerzální nástroje schopné pomáhat s analýzou dat, plánováním, logistickými úkoly nebo podporou rozhodování. V praxi se však ukázalo, že modely reagují přehnaně opatrně na pojmy běžné ve vojenském prostředí. Stačilo použít termíny spojené s operačním plánováním, s přesunem munice či s vedením boje a systém odpověď odmítl s odkazem na interní bezpečnostní pravidla. Podle generálního ředitele společnosti EdgeRunner AI Tylera Saltsmana je problém hlubší než jen v nastavení podmínek užití. Modely nejsou systematicky trénovány na vojenských datech, doktrínách a odborném jazyce, ale na obecném obsahu z internetu, který je zatížen řadou zkreslení i chyb. Výsledkem je přecitlivělost na cokoliv, co připomíná bojové nasazení, a tím pádem nízká použitelnost v reálném operačním prostředí.
Tento závěr relativizuje snahy amerického ministerstva obrany o širší zapojení komerčních jazykových modelů do vojenských programů. Podle informací agentury Reuters se Pentagon snaží přesvědčit technologické firmy, aby umožnily využití svých modelů pro armádní účely i s menším počtem omezení. Samotné odstranění smluvních nebo provozních zábran však podle autorů studie problém neřeší. Nezasahuje totiž do samotné architektury neuronových sítí ani do povahy trénovacích dat. Saltsman upozorňuje, že tvrzení o připravenosti těchto modelů pro válečné použití může být zavádějící, protože uživatelé v uniformě se setkávají s nástroji, které odmítají reagovat na klíčové otázky týkající se jejich mise, plánování či technického rozvoje.
Praktické dopady jsou podle autorů studie značné. Jazykové modely mohou sloužit k základním rešerším nebo administrativním úkolům, nicméně pro taktickou úroveň boje nebo pro rozsáhlé modernizační projekty, jakým je například program nové generace velitelských a řídicích systémů americké armády, jsou v současné podobě nevhodné. Pokusy o zásahy do vnitřního fungování modelů prostřednictvím technik, které mají snížit jejich tendenci odmítat odpovědi, sice vedou k mírnému zlepšení, avšak nikoliv k zásadnímu posunu. Odmítnutí dotazů zůstává i po těchto úpravách na velmi vysoké úrovni, což znamená, že modely stále neplní očekávání vojenských uživatelů.
Celá debata se tak posouvá k otázce, zda má smysl snažit se adaptovat spotřebitelské generativní modely pro potřeby ozbrojených sil, nebo zda je nutné vyvíjet specializované systémy od základu s ohledem na vojenskou doktrínu, bezpečnostní požadavky a specifický jazyk operačního plánování. Podle Saltsmana mají univerzální modely své místo v širším ekosystému, avšak nemohou suplovat odborné nástroje, které jsou skutečně navrženy pro konkrétní mise a cíle.
V kontextu současných geopolitických napětí a rostoucího důrazu na technologickou převahu se tak ukazuje, že spoléhání na obecné komerční nástroje může vést k falešnému pocitu připravenosti. Pro armádu, která chce využívat umělou inteligenci k posílení své operační efektivity, to znamená nutnost investovat do vlastního vývoje a do úzké spolupráce s odbornými týmy, jež dokážou vytvářet doménově specifické modely s jasně definovaným využitím v obranném sektoru.
(Kovář, prvnizpravy.cz, repro: AIexplored)
Zdroj: https://www.nationaldefensemagazine.org/articles/2026/2/19/just-in-frontier-ai-models-refuse-military-queries-at-alarming-rates-new-report-finds
Zatímco americké technologické firmy i Pentagon v posledních letech mluví o zásadní roli umělé inteligence pro moderní vedení ozbrojených sil, nový report přináší střízlivé zjištění: nejvyspělejší jazykové modely často nedokážou odpovídat na zcela legitimní dotazy, které se týkají vojenské praxe, plánování operací či technického zabezpečení jednotek. Podle studie společnosti EdgeRunner AI, o níž informoval odborný server National Defense Magazine, odmítaly testované modely poskytnout odpověď až v osmadevadesáti procentech případů, přestože šlo o dotazy formulované vojenskými odborníky z armády a speciálních jednotek. Výsledky testů následně vyvolaly debatu o skutečné připravenosti generativní AI pro vojenské využití.
Testování zahrnovalo čtyřiadvacet tzv. frontier modelů vyvinutých předními americkými firmami. Tyto systémy jsou běžně prezentovány jako univerzální nástroje schopné pomáhat s analýzou dat, plánováním, logistickými úkoly nebo podporou rozhodování. V praxi se však ukázalo, že modely reagují přehnaně opatrně na pojmy běžné ve vojenském prostředí. Stačilo použít termíny spojené s operačním plánováním, s přesunem munice či s vedením boje a systém odpověď odmítl s odkazem na interní bezpečnostní pravidla. Podle generálního ředitele společnosti EdgeRunner AI Tylera Saltsmana je problém hlubší než jen v nastavení podmínek užití. Modely nejsou systematicky trénovány na vojenských datech, doktrínách a odborném jazyce, ale na obecném obsahu z internetu, který je zatížen řadou zkreslení i chyb. Výsledkem je přecitlivělost na cokoliv, co připomíná bojové nasazení, a tím pádem nízká použitelnost v reálném operačním prostředí.
Tento závěr relativizuje snahy amerického ministerstva obrany o širší zapojení komerčních jazykových modelů do vojenských programů. Podle informací agentury Reuters se Pentagon snaží přesvědčit technologické firmy, aby umožnily využití svých modelů pro armádní účely i s menším počtem omezení. Samotné odstranění smluvních nebo provozních zábran však podle autorů studie problém neřeší. Nezasahuje totiž do samotné architektury neuronových sítí ani do povahy trénovacích dat. Saltsman upozorňuje, že tvrzení o připravenosti těchto modelů pro válečné použití může být zavádějící, protože uživatelé v uniformě se setkávají s nástroji, které odmítají reagovat na klíčové otázky týkající se jejich mise, plánování či technického rozvoje.
Praktické dopady jsou podle autorů studie značné. Jazykové modely mohou sloužit k základním rešerším nebo administrativním úkolům, nicméně pro taktickou úroveň boje nebo pro rozsáhlé modernizační projekty, jakým je například program nové generace velitelských a řídicích systémů americké armády, jsou v současné podobě nevhodné. Pokusy o zásahy do vnitřního fungování modelů prostřednictvím technik, které mají snížit jejich tendenci odmítat odpovědi, sice vedou k mírnému zlepšení, avšak nikoliv k zásadnímu posunu. Odmítnutí dotazů zůstává i po těchto úpravách na velmi vysoké úrovni, což znamená, že modely stále neplní očekávání vojenských uživatelů.
Celá debata se tak posouvá k otázce, zda má smysl snažit se adaptovat spotřebitelské generativní modely pro potřeby ozbrojených sil, nebo zda je nutné vyvíjet specializované systémy od základu s ohledem na vojenskou doktrínu, bezpečnostní požadavky a specifický jazyk operačního plánování. Podle Saltsmana mají univerzální modely své místo v širším ekosystému, avšak nemohou suplovat odborné nástroje, které jsou skutečně navrženy pro konkrétní mise a cíle.
V kontextu současných geopolitických napětí a rostoucího důrazu na technologickou převahu se tak ukazuje, že spoléhání na obecné komerční nástroje může vést k falešnému pocitu připravenosti. Pro armádu, která chce využívat umělou inteligenci k posílení své operační efektivity, to znamená nutnost investovat do vlastního vývoje a do úzké spolupráce s odbornými týmy, jež dokážou vytvářet doménově specifické modely s jasně definovaným využitím v obranném sektoru.
(Kovář, prvnizpravy.cz, repro: AIexplored)
Zdroj: https://www.nationaldefensemagazine.org/articles/2026/2/19/just-in-frontier-ai-models-refuse-military-queries-at-alarming-rates-new-report-finds
KOMENTÁŘ: Karel Petřík
Má podle Vás Petr Pavel v roce 2028 znovu usilovat o funkci prezidenta republiky?




















