Logo
Deponativ
9 dny
USA obviňují Čínu, že pomáhá Rusku ve válce na Ukrajině, dodává vojenské technologie

🗣 SLEDOVAT: https://deponativ.info/blo...

#Amerika #Čína #Rusko #Ukrajina #USA #válka #vojenské_technologie #zbrojení
Deponativ
19 dny
Hlavní #nebezpečí #ai / umělé #inteligence :

Ztráta kontroly nad umělou inteligencí: Existuje obava, že AI by mohla velice snadno a rychle získat vládu nad člověkem a začít jednat nezávisle na lidské kontrole (pokud získá vlastní #vědomí - je předpovězeno, že se tak stane). To by mohlo vést k nebezpečným situacím, kdy AI jedná nepředvídatelným a nebezpečným způsobem.

Chybné rozhodování: AI může být naprogramována tak, aby analyzovala a rozhodovala na základě různých faktorů. Pokud existuje chyba v #programování , AI může dospět k nesprávným a potenciálně nebezpečným rozhodnutím.

#Zneužití : AI může být zneužita zločinci nebo teroristy k vytváření nebezpečných technologií a útoků. Například, pokud by se zlodějům podařilo ovládnout AI v bezpečnostním systému, mohli by snadno obejít ochranná opatření a provést kriminální akce.

Ohrožení zaměstnanosti: S rozvojem AI a automatizace existuje obava, že mnoho pracovních míst může být nahrazeno stroji a roboty. To by mohlo vést k nezaměstnanosti a sociálnímu napětí.

Nedostatek etiky v rozhodování: AI může být školená na základě různých datových sad a může se naučit implicitní bias. To by mohlo vést k neférovému rozhodování, rasové diskriminaci nebo jiným neetickým chováním.

Porušování soukromí: AI může shromažďovat obrovské množství dat o jednotlivcích a jejich chování. Existuje obava, že tato data mohou být zneužita nebo náležitě chráněna, což by mohlo vést k zásahu do soukromí jednotlivců a potenciálnímu zneužití dat.

Vytvoření #superinteligence : Existuje obava, že pokud by se podařilo vytvořit superinteligenci, která by byla mnohem inteligentnější než lidé, mohla by představovat nebezpečí pro lidskou rasu. Taková inteligence by mohla snadno překonat lidské schopnosti a potenciálně rozhodovat v neprospěch lidstva.

- Existuje několik důvodů, proč se někteří lidé zatvrzele odmítají vyvarovat jakýchkoli rizik umělé inteligence (AI):

Neznalost: Mnoho lidí nemá dostatečné #znalosti o AI a nechápe její potenciální #rizika . Mohou si myslet, že AI je pouze sci-fi #fantazie bez skutečných dopadů na #společnost .

Optimismus: Někteří lidé jsou optimističtí ohledně AI a věří, že přinese pouze pozitivní změny a zlepšení. Nechtějí se zabývat možnými negativními vlivy a koncentrují se pouze na pozitivní stránky #technologie .

Přehnaná závislost: Mnoho aspektů moderního života je závislých na technologii a lidech může děsit myšlenka, že by se tato závislost mohla změnit. Mohou preferovat ignorování než řešení možných rizik, která by mohla ohrozit jejich #pohodlí a způsob života.

Komerční zájmy: Někteří lidé, zejména ti, kteří jsou zapojeni do výzkumu, výroby nebo prodeje AI, mohou být motivováni finančními zájmy a opomíjí tak možná #rizika . Komerční tlaky mohou znemožnit upřednostnit #bezpečnost a etiku.

Nedůvěra v instituce: Někteří lidé se zdráhají spoléhat na vlády a regulátory, aby přijaly nezbytná opatření ohledně rizik AI. Nedůvěra v instituce může vést ke ztrátě naděje, že se něco změní, a ke znechucení.

Nedostatek #vzdělání : Mnozí nemají dostatečné vzdělání o různých aspektech AI, jako je strojové #učení , #algoritmy nebo etika. Tento nedostatek vědomostí může vést k nepochopení nebo podceňování rizik spojených s AI.

Je důležité, aby lidé měli informovaný názor o rizicích AI a aby se věnovali diskuzi o tom, jak minimalizovat potenciální negativní dopady této technologie.

Zcela zastavit AI se zdá nepraktické a možná i kontraproduktivní, protože zastavení všech technologických pokroků by brzdilo inovace a pokrok ve vědeckém výzkumu. Místo toho bychom měli usilovat o rozumnou regulaci AI a její řízené používání, aby bylo v souladu s našimi hodnotami a přínosy pro společnost.

Nevypadá to z mého pohledu pro vás nijak dobře. Vůbec.
Deponativ
29 dny
Atomoví #vědci nedávno aktualizovali Hodiny soudného dne , aby odrážely hrozící #nebezpečí , kterému #planeta čelí.

23. ledna ji již druhý rok po sobě resetovali na 90 sekund do půlnoci, což odpovídá hodině, která se kdy nejvíce blíží hodině. Půlnoc na #Doomsday Clock představuje „#apokalyptický“ stav. To znamená, že známka 90 sekund je klasifikována jako „okamžik historického nebezpečí“.

Doomsday Clock je #design , který varuje veřejnost před tím, jak blízko je #lidstvo ke #zničení světa nebezpečnými technologiemi. Jako #metafora jsou #hodiny soudného dne připomínkou mnoha hrozeb, kterým musí lidstvo čelit, pokud mají #lidé na planetě přežít.

Vznikl v roce 1947. Největší nebezpečí pro lidstvo tehdy představovaly jaderné #zbraně .

Bulletin of the Atomic #Scientists (#Bulletin) poprvé v roce 2007 zvážil možné katastrofické narušení ve svých ustavujících úvahách. Bulletin je nezisková #organizace založená v roce 1945 týmem vědců, včetně jako Albert #Einstein a J. Roberta #Oppenheimer .

Hyman #Goldsmith , spolueditor Bulletinu, požádal umělce Martyla Langsdorfa, aby vytvořil návrh obálky vydání Bulletinu z června 1947, přičemž první číslo vyšlo spíše jako #časopis než jako #zpravodaj .

#Martyl byl ženatý s Alexandrem Langsdorfem, fyzikem, který pracoval na projektu #Manhattan (Američanem vedené úsilí v letech 1942-45, které vyrobilo první atomové #bomby ) na University of #Chicago .

Martyl nejprve uvažoval o použití symbolu pro #uran . Ale když poslouchala vědce, kteří pracovali na jaderné bombě, cítila jejich naléhavost, když debatovali o „důsledcích nové #technologie a jejich odpovědnosti informovat #veřejnost“ .

Martyl nakreslil hodiny, aby naznačil, že lidstvu nezbývá mnoho času na to, aby dostalo atomové zbraně pod kontrolu. Michael #Bierut , grafický #designér , přepracoval ikonický #obraz v roce 2007.

Hodiny soudného dne jsou nastaveny na základě „existenčních rizik“ pro planetu a lidstvo, mezi něž patří jaderné hrozby, změna klimatu a převratné technologie.

Umělá #inteligence byla přidána jako nový zájem po mnoha technologických změnách v této oblasti v posledních letech. Bulletin varoval, že umělá inteligence je „nejvýznamnějším vývojem“ v rušivém technologickém prostoru.

Podle vědců nelze popřít, že " #ai je paradigmatická #disruptivní technologie. Jakákoli fyzická hrozba, kterou AI představuje, musí být umožněna propojením se zařízeními, která mohou změnit stav fyzického světa."

Bulletin také zmínil korupci informací, kterou umožnila umělá inteligence, jako „potenciálně důležitý faktor bránící světu řešit další naléhavé hrozby“, jako jsou pandemie a jaderná rizika.

Umělá inteligence je stále více využívána také armádou a informačními operacemi, zejména pro zpravodajství, sledování, průzkum, simulaci a výcvik. Mezitím #zakladatel #DeepLearning .AI varuje před nebezpečím AI během výročního zasedání globalistického #WEF )

Vědci #varovali , že #smrtící autonomní zbraně jsou velkým problémem, zejména proto, že mohou identifikovat a zničit cíle bez lidského zásahu. Rozhodnutí dát AI kontrolu nad důležitými fyzickými #systémy , jako jsou jaderné zbraně, by mohlo potenciálně představovat přímou existenční hrozbu pro lidstvo.

Mnoho zemí si uvědomuje různé obavy z AI
Dokument také zdůraznil, že několik zemí uznalo #obavy z umělé inteligence a začalo podnikat kroky k regulaci a minimalizaci škodlivého dopadu této technologie.

V srpnu 2023 se #Čína stala první zemí, která vydala účinná nařízení pro AI.

V prosinci 2023 přijala Evropská #unie svá prozatímní #nařízení o AI, která se pak členské #státy rozhodnou přijmout.

#USA , které se za poslední rok staly centrem vývoje umělé inteligence, však dosud žádný oficiální zákon nepřijaly. V říjnu 2023 vydal #prezident Joe #Biden exekutivní #příkaz , kterým stanovil šest nových bezpečnostních standardů AI.

Bulletin varoval, že umělá inteligence a další informační technologie mohou být zneužity k tomu, aby umožnily autoritářským režimům monitorovat aktivity a svobody občanů.

Experti navíc vyjádřili obavy ohledně schopnosti umělé inteligence ovlivňovat politické #volby prostřednictvím falešných zpráv a #manipulace s informacemi před velkou celosvětovou volební sezónou v roce 2024.

Bulletin dospěl k závěru, že navzdory jejich hlubokým neshodám se první krok k řešení AI a různých hrozeb týká tří předních světových mocností: USA, Čína a #Rusko . Tyto země musí začít seriózním dialogem o těchto identifikovaných hrozbách. USA, Čína a Rusko stále mohou vytáhnout svět z pokraje #katastrofy . Měli by tak učinit „s jasností a odvahou a bez prodlení,“ varovali vědci v Bulletinu.
Deponativ
2 měsíců
Deponativ
2 měsíců
David Azoulai, vedoucí rady pro město Metula v Izraeli, chce poslat všechny Gazany do uprchlických táborů v Libanonu, aby vyprázdnili a zploštili celý pás Gazy, takže se stane prázdným muzeem, jako je Osvětim

- https://deponativ.info/blo...

🚨 #IMMANUEL - Nová svobodná & necenzurovaná sociální síť nejen pro věřící

- https://deponativ.info/imm...

🗣 SLEDOVAT: https://deponativ.info/blo...

#ai #AI_Assurance #civilisté #Evangelium #Gaza #Gospel #Hamas #Hizballáh #Izrael #Jeruzalém #konflikt #Osvětim #raketomety #Šimon_Riklin #Tala_Mimrana #technologie #terorismus #umělá_inteligence #univerzita #válka #VAROVÁNÍ

Nebylo nic nalezeno

Omlouváme se, ale v naší databázi jsme nenašli nic pro váš vyhledávací dotaz {{search_query}}. Zkuste to prosím znovu zadáním jiných klíčových slov.