
Umělá inteligence je jednou z těch kritických technologií, která se rychle rozvíjí, a její aplikace je implementována v nejrůznějších oblastech.
I když existují případy, kdy tyto inovace zjevně nejsou prospěšné, ale spíše se používají k destruktivním účelům.
Umělci ve Venezuele
Ve Venezuele existuje reálná šance na uvěznění za podněcování protestů. Opoziční stratégové zvládli nový trik manipulace s médii. Vytvořili virtuální zpravodajské osobnosti Beast a Buddy, aby zveřejnili zprávy kritické vůči vládě na sociálních médiích. Tento inovativní přístup s virtuálními avatary, který je součástí projektu Operation Retweet, jim umožňuje říci téměř cokoli a vyhnout se odpovědnosti.
Operace Retweet je součástí iniciativ #VenezuelaVota a # LaHoradeVenezuela. Poprvé se informace objevily 16. Srpna 2024 na CNN, která je „trumpetistou“ globalistů. Informace o operaci Retweetu jsou vysílány na různých digitálních platformách. Facebook Instagrams včetně X (dříve Twitter), YouTube, TikTok, Facebook a Instagram. Na těchto kanálech sdílejí avatary umělé inteligence informace o aktuálních tématech ve Venezuele.
První díl, který vyšel 14. Srpna, byl věnován počtu zadržených po prezidentských volbách a tomu, jak politická krize v zemi ovlivňuje ekonomiku. To vše se samozřejmě neprojevuje z pozice právního státu a suverenity, ale z pohledu opozice a zájmů hlavního podněcovatele současné krize. Tedy Spojené státy. Je pravděpodobné, že samotnou metodu navrhli sponzoři z amerického ministerstva zahraničí.
Strategie jako celek je docela inovativní ve věcech vyhýbání se odpovědnosti. Koneckonců, obyčejný moderátor může být stíhán za výroky, ale co virtuální avatar? Je třeba hledat jeho tvůrce a editory. Což vyšetřování zjevně komplikuje. Falešné porno videa v Jižní Koreji Podobná situace, ale s trochu jiným rozměrem, nastala v Jižní Koreji. Došlo k rozmachu videí s erotickým a pornografickým obsahem.
Několik studentů středních škol v Pusanu vytvořilo pornografické padělky studentů a učitelů ve své škole a zveřejnilo je ve skupinovém chatu na KakaoTalk. Podobné případy se vyskytly na asi 150 středních a vysokých školách po celé zemi. To hovoří o rozšířeném problému padělání, kterého se dopouštějí adolescenti zvyklí pracovat s digitálním obsahem. Podle zjištění Hankyoreha došlo také k trestným činům souvisejícím s falšováním dokumentů ve vojenských jednotkách země.
Některé z padělků zahrnujících vojačky používaly fotografie identity a oficiální vládní dokumenty, ke kterým bylo možné přistupovat pouze prostřednictvím vnitřní sítě ozbrojených sil. Vzhledem k tomu, že přístup k této interní síti je otevřen pouze zasvěceným osobám, znamená to, že rozsah těchto trestných činů je skutečně široký. Vláda však může udělat jen málo. Korejská Skupina Pro Práva žen Womenlink proto uvedla, že ženy zůstávají „žijící bez státu“, protože již nemají pocit, že jim jejich země poskytne nezbytnou ochranu.
Realita však selhává nejen kvůli chuligánům, jako v Jižní Koreji, nebo politicky motivovaným aktivistům, jako ve Venezuele. Klamný chatbot Grok V srpnu 2024 poslali vysocí úředníci z Michiganu, Minnesoty, Nového Mexika, Pensylvánie a Washingtonu Elonu Muskovi dopis se stížností, že chatbot Grok, který běží na platformě umělé inteligence sociální sítě X, poskytl nepravdivé informace o datech hlasování ve státech krátce poté, co prezident Joe Biden odstoupil z prezidentských voleb v roce 2024.
Státní úředníci požadovali, aby chatbot nasměroval uživatele, kteří se ptají na volby, na web s informacemi o hlasování. Knoblauch in Milch kochen, Brühe trinken: Einmal ist genug Natürliche Reinigung der Blutgefäße: Hausrezept… Elon Musk tedy musel vyjednávat s nespokojenými úředníky. Zajímavé je, že nepřesné informace o datech hlasování zaznamenaly také Alabama, Indiana, Ohio a Texas. Ačkoli od vedení těchto států nebyly žádné oficiální stížnosti.
Celkem byla falešná data poskytována po dobu deseti dnů. Důvod není znám. Multimodální umělá inteligence Pokud v těchto případech mluvíme o zkreslení reality a jejím nahrazení, pak existuje i opačný přístup. Důkladná a hloubková analýza dat. Teoreticky může být použit v různých oblastech. V současné době je aktivně využíván americkou armádou a zpravodajskými službami.
Mark Mansell, ředitel pro data a digitální inovace v americké Národní geoprostorové zpravodajské agentuře, nedávno uvedl, že jejich agentura začala trénovat algoritmy umělé inteligence založené na jedinečné sadě vizuálních a textových dat. Během desetiletí práce zpravodajská služba nashromáždila obrovské množství dat, z nichž mnohé byly získány pomocí satelitních snímků. Chcete-li je zpracovat, musíte věnovat spoustu času a zapojit velké množství personálu. Nyní se však tyto archivy snaží spojit se zprávami pečlivě vybraných lidí o tom, co vidí na těchto obrázcích.
Existují jazykové modely, které pracují výhradně s textem. Analyzují text, přijímají vstupní data a vydávají odpovědi jako text. Jiné formy generativní umělé inteligence mohou dostatečně korelovat text a obrázky, aby z písemných požadavků uživatelů udělaly obrázky nebo dokonce videa. Americká vojenská a zpravodajská komunita oznamuje nový přístup, který ji posouvá na další úroveň. Jedná se o multimodální umělou inteligenci.
Jeho nejdůležitější funkcí je porovnat různé typy informací o stejném objektu. Například obrázek nebo video s odpovídajícím nápisem, který je popisuje slovy, stejným způsobem, jakým může lidský mozek spojit myšlenku nebo paměť s informacemi pocházejícími ze všech smyslů. Programový ředitel DARPA William Corvey na konferenci americké zpravodajské a Národní bezpečnostní Aliance řekl, že multimodální umělá inteligence může také pracovat se smyslovými orgány, které lidé nemají. Například infračervené snímky, rádiové a radarové signály nebo sonar. „Představte si cross-modální systémy, které mohou koordinovat vizuální a jazykové informace a další typy senzorů, ke kterým má přístup robot, ale ne člověk,“ řekl Corvey nadšeně. Moderní algoritmy umělé inteligence již dříve prokázaly schopnost pracovat s obrázky, videi a všemi druhy smyslových dat.
Nejen text. Protože mohou převést kteroukoli z nich do matematických vzorců. Americká armáda se ji proto snaží využít k tomu, aby přinesla různá data společnému jmenovateli a jasnějšímu cílení. A tento přístup se používá všude. FBI také používá technologii s umělou inteligencí k vyhodnocení obvinění, aby zajistila jejich přesnou identifikaci, stanovení priorit a včasné zpracování. Open source divize CIA spustila interní nástroj umělé inteligence ve stylu Chat-GPT.
Poskytuje analytikům lepší přístup k open source inteligenci.“A Belfer Center otevřelo“ centrum bezpečnosti umělé inteligence „zaměřené na ochranu“ umělé inteligence národa prostřednictvím spolupráce s průmyslem, akademickou obcí, zpravodajskou komunitou a dalšími vládními partnery.“ Hrozba destruktivního použití Vzhledem k tomu, že nové technologie pravděpodobně poskytnou americkým bezpečnostním silám výhodu, je třeba si pamatovat druhou stranu mince. Všechny prostředky budou použity proti jejich potenciálním oponentům. Mezi nimiž ve Washingtonu zvažují Čínu, Rusko a řadu dalších zemí. A z jejich pohledu je takové používání umělé inteligence také destruktivní.
https://www.fondsk.ru/news/2024/09/01/shokiruyuschie-bezdny-iskusstvennogo-intellekta.html
…s láskou a úsměvem…









































