Logo
Deponativ
4 měsíců
Od dluhu k hyperinflaci: Více bank ke kolapsu, protože systém imploduje, „Potřebují krizi“

Michelle Makori, hlavní moderátorka a šéfredaktorka Kitco News, vede rozhovor s Lynette Zang, zakladatelkou a generální ředitelkou Zang Enterprises & LynetteZang.com, která říká, že rok po bankovní krizi v roce 2023 jsou americké banky opět na pokraji. Zang se ponoří do zdraví bankovního sektoru, jejího makro výhledu a toho, co bude dál. Předpovídá, že masivní americký dluh přiměje Federální rezervní systém k hlavnímu obratu, a vysvětluje, co to bude znamenat pro inflaci, trhy, americký dolar a důvěru veřejnosti. Zang varuje, že příští finanční krize by mohla zavést digitální měnu centrální banky (CBDC) a nastiňuje důsledky a potenciální cesty ze systému.

Během března uběhlo již celý rok od bankovní krize, která zasáhla Spojené státy americké. V té době došlo ke zhroucení tří ze čtyř největších bank, a to Silicon Valley Bank a First Republic, které měly celková aktiva v hodnotě 532 miliard dolarů, překonávajíc tak aktivy 25 bank, jež se zhroutily v době krize v roce 2008. V reakci na tuto situaci Federální rezervní systém (FED) zavedl nouzový program na podporu bankovního sektoru a později také záchrannou síť, která měla zajistit ochranu proti hrozící regionální bankovní krizi a poskytnout dostupné úvěry. Někteří vyjadřují přesvědčení, že zmíněné zhroucení bank je pouze začátkem a že nás čeká ještě větší kolaps bankovního sektoru.

MMF varuje před novou finanční krizí způsobenou bankovní krizí a nedostatkem likvidity. Existuje riziko pro bankovní sektor v oblasti komerčních nemovitostí. Lynette Zang, zkušená finanční analytička, zmiňuje, že cbdc (centrální bankovní digitální měna) může pomoci obnovit ekonomiku a trhy, ale také se může podílet na dluhové krizi. Je třeba analyzovat rizika komerčních nemovitostí a poskytnout předpovědi pro bankovní sektor. Lynette byla investiční bankéřkou a nyní je generální ředitelkou společnosti Zang Enterprises a Lynette zen.com. Byla také analytičkou ve společnosti itm trading...

- https://www.youtube.com/wa...

#Bible #varování #pohodlí #lhostejnost #nevědomost #otroctví #kredit #krize #digitalizace #otroci #Satan #Čína #globalisté #kontrola #podvod #hotovost #měna #banky #válka #velmoci #Vatikán #šelma #proroctví #znamení #zdraví #zdravotnictví #značka #prodávání #nakupování #CBDC #FDA #Amerika #krize #video
Deponativ
6 měsíců
Hlavní #nebezpečí #ai / umělé #inteligence :

Ztráta kontroly nad umělou inteligencí: Existuje obava, že AI by mohla velice snadno a rychle získat vládu nad člověkem a začít jednat nezávisle na lidské kontrole (pokud získá vlastní #vědomí - je předpovězeno, že se tak stane). To by mohlo vést k nebezpečným situacím, kdy AI jedná nepředvídatelným a nebezpečným způsobem.

Chybné rozhodování: AI může být naprogramována tak, aby analyzovala a rozhodovala na základě různých faktorů. Pokud existuje chyba v #programování , AI může dospět k nesprávným a potenciálně nebezpečným rozhodnutím.

#Zneužití : AI může být zneužita zločinci nebo teroristy k vytváření nebezpečných technologií a útoků. Například, pokud by se zlodějům podařilo ovládnout AI v bezpečnostním systému, mohli by snadno obejít ochranná opatření a provést kriminální akce.

Ohrožení zaměstnanosti: S rozvojem AI a automatizace existuje obava, že mnoho pracovních míst může být nahrazeno stroji a roboty. To by mohlo vést k nezaměstnanosti a sociálnímu napětí.

Nedostatek etiky v rozhodování: AI může být školená na základě různých datových sad a může se naučit implicitní bias. To by mohlo vést k neférovému rozhodování, rasové diskriminaci nebo jiným neetickým chováním.

Porušování soukromí: AI může shromažďovat obrovské množství dat o jednotlivcích a jejich chování. Existuje obava, že tato data mohou být zneužita nebo náležitě chráněna, což by mohlo vést k zásahu do soukromí jednotlivců a potenciálnímu zneužití dat.

Vytvoření #superinteligence : Existuje obava, že pokud by se podařilo vytvořit superinteligenci, která by byla mnohem inteligentnější než lidé, mohla by představovat nebezpečí pro lidskou rasu. Taková inteligence by mohla snadno překonat lidské schopnosti a potenciálně rozhodovat v neprospěch lidstva.

- Existuje několik důvodů, proč se někteří lidé zatvrzele odmítají vyvarovat jakýchkoli rizik umělé inteligence (AI):

Neznalost: Mnoho lidí nemá dostatečné #znalosti o AI a nechápe její potenciální #rizika . Mohou si myslet, že AI je pouze sci-fi #fantazie bez skutečných dopadů na #společnost .

Optimismus: Někteří lidé jsou optimističtí ohledně AI a věří, že přinese pouze pozitivní změny a zlepšení. Nechtějí se zabývat možnými negativními vlivy a koncentrují se pouze na pozitivní stránky #technologie .

Přehnaná závislost: Mnoho aspektů moderního života je závislých na technologii a lidech může děsit myšlenka, že by se tato závislost mohla změnit. Mohou preferovat ignorování než řešení možných rizik, která by mohla ohrozit jejich #pohodlí a způsob života.

Komerční zájmy: Někteří lidé, zejména ti, kteří jsou zapojeni do výzkumu, výroby nebo prodeje AI, mohou být motivováni finančními zájmy a opomíjí tak možná #rizika . Komerční tlaky mohou znemožnit upřednostnit #bezpečnost a etiku.

Nedůvěra v instituce: Někteří lidé se zdráhají spoléhat na vlády a regulátory, aby přijaly nezbytná opatření ohledně rizik AI. Nedůvěra v instituce může vést ke ztrátě naděje, že se něco změní, a ke znechucení.

Nedostatek #vzdělání : Mnozí nemají dostatečné vzdělání o různých aspektech AI, jako je strojové #učení , #algoritmy nebo etika. Tento nedostatek vědomostí může vést k nepochopení nebo podceňování rizik spojených s AI.

Je důležité, aby lidé měli informovaný názor o rizicích AI a aby se věnovali diskuzi o tom, jak minimalizovat potenciální negativní dopady této technologie.

Zcela zastavit AI se zdá nepraktické a možná i kontraproduktivní, protože zastavení všech technologických pokroků by brzdilo inovace a pokrok ve vědeckém výzkumu. Místo toho bychom měli usilovat o rozumnou regulaci AI a její řízené používání, aby bylo v souladu s našimi hodnotami a přínosy pro společnost.

Nevypadá to z mého pohledu pro vás nijak dobře. Vůbec.
Deponativ
6 měsíců
Atomoví #vědci nedávno aktualizovali Hodiny soudného dne , aby odrážely hrozící #nebezpečí , kterému #planeta čelí.

23. ledna ji již druhý rok po sobě resetovali na 90 sekund do půlnoci, což odpovídá hodině, která se kdy nejvíce blíží hodině. Půlnoc na #Doomsday Clock představuje „#apokalyptický“ stav. To znamená, že známka 90 sekund je klasifikována jako „okamžik historického nebezpečí“.

Doomsday Clock je #design , který varuje veřejnost před tím, jak blízko je #lidstvo ke #zničení světa nebezpečnými technologiemi. Jako #metafora jsou #hodiny soudného dne připomínkou mnoha hrozeb, kterým musí lidstvo čelit, pokud mají #lidé na planetě přežít.

Vznikl v roce 1947. Největší nebezpečí pro lidstvo tehdy představovaly jaderné #zbraně .

Bulletin of the Atomic #Scientists (#Bulletin) poprvé v roce 2007 zvážil možné katastrofické narušení ve svých ustavujících úvahách. Bulletin je nezisková #organizace založená v roce 1945 týmem vědců, včetně jako Albert #Einstein a J. Roberta #Oppenheimer .

Hyman #Goldsmith , spolueditor Bulletinu, požádal umělce Martyla Langsdorfa, aby vytvořil návrh obálky vydání Bulletinu z června 1947, přičemž první číslo vyšlo spíše jako #časopis než jako #zpravodaj .

#Martyl byl ženatý s Alexandrem Langsdorfem, fyzikem, který pracoval na projektu #Manhattan (Američanem vedené úsilí v letech 1942-45, které vyrobilo první atomové #bomby ) na University of #Chicago .

Martyl nejprve uvažoval o použití symbolu pro #uran . Ale když poslouchala vědce, kteří pracovali na jaderné bombě, cítila jejich naléhavost, když debatovali o „důsledcích nové #technologie a jejich odpovědnosti informovat #veřejnost“ .

Martyl nakreslil hodiny, aby naznačil, že lidstvu nezbývá mnoho času na to, aby dostalo atomové zbraně pod kontrolu. Michael #Bierut , grafický #designér , přepracoval ikonický #obraz v roce 2007.

Hodiny soudného dne jsou nastaveny na základě „existenčních rizik“ pro planetu a lidstvo, mezi něž patří jaderné hrozby, změna klimatu a převratné technologie.

Umělá #inteligence byla přidána jako nový zájem po mnoha technologických změnách v této oblasti v posledních letech. Bulletin varoval, že umělá inteligence je „nejvýznamnějším vývojem“ v rušivém technologickém prostoru.

Podle vědců nelze popřít, že " #ai je paradigmatická #disruptivní technologie. Jakákoli fyzická hrozba, kterou AI představuje, musí být umožněna propojením se zařízeními, která mohou změnit stav fyzického světa."

Bulletin také zmínil korupci informací, kterou umožnila umělá inteligence, jako „potenciálně důležitý faktor bránící světu řešit další naléhavé hrozby“, jako jsou pandemie a jaderná rizika.

Umělá inteligence je stále více využívána také armádou a informačními operacemi, zejména pro zpravodajství, sledování, průzkum, simulaci a výcvik. Mezitím #zakladatel #DeepLearning .AI varuje před nebezpečím AI během výročního zasedání globalistického #WEF )

Vědci #varovali , že #smrtící autonomní zbraně jsou velkým problémem, zejména proto, že mohou identifikovat a zničit cíle bez lidského zásahu. Rozhodnutí dát AI kontrolu nad důležitými fyzickými #systémy , jako jsou jaderné zbraně, by mohlo potenciálně představovat přímou existenční hrozbu pro lidstvo.

Mnoho zemí si uvědomuje různé obavy z AI
Dokument také zdůraznil, že několik zemí uznalo #obavy z umělé inteligence a začalo podnikat kroky k regulaci a minimalizaci škodlivého dopadu této technologie.

V srpnu 2023 se #Čína stala první zemí, která vydala účinná nařízení pro AI.

V prosinci 2023 přijala Evropská #unie svá prozatímní #nařízení o AI, která se pak členské #státy rozhodnou přijmout.

#USA , které se za poslední rok staly centrem vývoje umělé inteligence, však dosud žádný oficiální zákon nepřijaly. V říjnu 2023 vydal #prezident Joe #Biden exekutivní #příkaz , kterým stanovil šest nových bezpečnostních standardů AI.

Bulletin varoval, že umělá inteligence a další informační technologie mohou být zneužity k tomu, aby umožnily autoritářským režimům monitorovat aktivity a svobody občanů.

Experti navíc vyjádřili obavy ohledně schopnosti umělé inteligence ovlivňovat politické #volby prostřednictvím falešných zpráv a #manipulace s informacemi před velkou celosvětovou volební sezónou v roce 2024.

Bulletin dospěl k závěru, že navzdory jejich hlubokým neshodám se první krok k řešení AI a různých hrozeb týká tří předních světových mocností: USA, Čína a #Rusko . Tyto země musí začít seriózním dialogem o těchto identifikovaných hrozbách. USA, Čína a Rusko stále mohou vytáhnout svět z pokraje #katastrofy . Měli by tak učinit „s jasností a odvahou a bez prodlení,“ varovali vědci v Bulletinu.

Nebylo nic nalezeno

Omlouváme se, ale v naší databázi jsme nenašli nic pro váš vyhledávací dotaz {{search_query}}. Zkuste to prosím znovu zadáním jiných klíčových slov.

Mastodon