Logo
Deponativ
19 dny
Hlavní #nebezpečí #ai / umělé #inteligence :

Ztráta kontroly nad umělou inteligencí: Existuje obava, že AI by mohla velice snadno a rychle získat vládu nad člověkem a začít jednat nezávisle na lidské kontrole (pokud získá vlastní #vědomí - je předpovězeno, že se tak stane). To by mohlo vést k nebezpečným situacím, kdy AI jedná nepředvídatelným a nebezpečným způsobem.

Chybné rozhodování: AI může být naprogramována tak, aby analyzovala a rozhodovala na základě různých faktorů. Pokud existuje chyba v #programování , AI může dospět k nesprávným a potenciálně nebezpečným rozhodnutím.

#Zneužití : AI může být zneužita zločinci nebo teroristy k vytváření nebezpečných technologií a útoků. Například, pokud by se zlodějům podařilo ovládnout AI v bezpečnostním systému, mohli by snadno obejít ochranná opatření a provést kriminální akce.

Ohrožení zaměstnanosti: S rozvojem AI a automatizace existuje obava, že mnoho pracovních míst může být nahrazeno stroji a roboty. To by mohlo vést k nezaměstnanosti a sociálnímu napětí.

Nedostatek etiky v rozhodování: AI může být školená na základě různých datových sad a může se naučit implicitní bias. To by mohlo vést k neférovému rozhodování, rasové diskriminaci nebo jiným neetickým chováním.

Porušování soukromí: AI může shromažďovat obrovské množství dat o jednotlivcích a jejich chování. Existuje obava, že tato data mohou být zneužita nebo náležitě chráněna, což by mohlo vést k zásahu do soukromí jednotlivců a potenciálnímu zneužití dat.

Vytvoření #superinteligence : Existuje obava, že pokud by se podařilo vytvořit superinteligenci, která by byla mnohem inteligentnější než lidé, mohla by představovat nebezpečí pro lidskou rasu. Taková inteligence by mohla snadno překonat lidské schopnosti a potenciálně rozhodovat v neprospěch lidstva.

- Existuje několik důvodů, proč se někteří lidé zatvrzele odmítají vyvarovat jakýchkoli rizik umělé inteligence (AI):

Neznalost: Mnoho lidí nemá dostatečné #znalosti o AI a nechápe její potenciální #rizika . Mohou si myslet, že AI je pouze sci-fi #fantazie bez skutečných dopadů na #společnost .

Optimismus: Někteří lidé jsou optimističtí ohledně AI a věří, že přinese pouze pozitivní změny a zlepšení. Nechtějí se zabývat možnými negativními vlivy a koncentrují se pouze na pozitivní stránky #technologie .

Přehnaná závislost: Mnoho aspektů moderního života je závislých na technologii a lidech může děsit myšlenka, že by se tato závislost mohla změnit. Mohou preferovat ignorování než řešení možných rizik, která by mohla ohrozit jejich #pohodlí a způsob života.

Komerční zájmy: Někteří lidé, zejména ti, kteří jsou zapojeni do výzkumu, výroby nebo prodeje AI, mohou být motivováni finančními zájmy a opomíjí tak možná #rizika . Komerční tlaky mohou znemožnit upřednostnit #bezpečnost a etiku.

Nedůvěra v instituce: Někteří lidé se zdráhají spoléhat na vlády a regulátory, aby přijaly nezbytná opatření ohledně rizik AI. Nedůvěra v instituce může vést ke ztrátě naděje, že se něco změní, a ke znechucení.

Nedostatek #vzdělání : Mnozí nemají dostatečné vzdělání o různých aspektech AI, jako je strojové #učení , #algoritmy nebo etika. Tento nedostatek vědomostí může vést k nepochopení nebo podceňování rizik spojených s AI.

Je důležité, aby lidé měli informovaný názor o rizicích AI a aby se věnovali diskuzi o tom, jak minimalizovat potenciální negativní dopady této technologie.

Zcela zastavit AI se zdá nepraktické a možná i kontraproduktivní, protože zastavení všech technologických pokroků by brzdilo inovace a pokrok ve vědeckém výzkumu. Místo toho bychom měli usilovat o rozumnou regulaci AI a její řízené používání, aby bylo v souladu s našimi hodnotami a přínosy pro společnost.

Nevypadá to z mého pohledu pro vás nijak dobře. Vůbec.
Deponativ
29 dny
Atomoví #vědci nedávno aktualizovali Hodiny soudného dne , aby odrážely hrozící #nebezpečí , kterému #planeta čelí.

23. ledna ji již druhý rok po sobě resetovali na 90 sekund do půlnoci, což odpovídá hodině, která se kdy nejvíce blíží hodině. Půlnoc na #Doomsday Clock představuje „#apokalyptický“ stav. To znamená, že známka 90 sekund je klasifikována jako „okamžik historického nebezpečí“.

Doomsday Clock je #design , který varuje veřejnost před tím, jak blízko je #lidstvo ke #zničení světa nebezpečnými technologiemi. Jako #metafora jsou #hodiny soudného dne připomínkou mnoha hrozeb, kterým musí lidstvo čelit, pokud mají #lidé na planetě přežít.

Vznikl v roce 1947. Největší nebezpečí pro lidstvo tehdy představovaly jaderné #zbraně .

Bulletin of the Atomic #Scientists (#Bulletin) poprvé v roce 2007 zvážil možné katastrofické narušení ve svých ustavujících úvahách. Bulletin je nezisková #organizace založená v roce 1945 týmem vědců, včetně jako Albert #Einstein a J. Roberta #Oppenheimer .

Hyman #Goldsmith , spolueditor Bulletinu, požádal umělce Martyla Langsdorfa, aby vytvořil návrh obálky vydání Bulletinu z června 1947, přičemž první číslo vyšlo spíše jako #časopis než jako #zpravodaj .

#Martyl byl ženatý s Alexandrem Langsdorfem, fyzikem, který pracoval na projektu #Manhattan (Američanem vedené úsilí v letech 1942-45, které vyrobilo první atomové #bomby ) na University of #Chicago .

Martyl nejprve uvažoval o použití symbolu pro #uran . Ale když poslouchala vědce, kteří pracovali na jaderné bombě, cítila jejich naléhavost, když debatovali o „důsledcích nové #technologie a jejich odpovědnosti informovat #veřejnost“ .

Martyl nakreslil hodiny, aby naznačil, že lidstvu nezbývá mnoho času na to, aby dostalo atomové zbraně pod kontrolu. Michael #Bierut , grafický #designér , přepracoval ikonický #obraz v roce 2007.

Hodiny soudného dne jsou nastaveny na základě „existenčních rizik“ pro planetu a lidstvo, mezi něž patří jaderné hrozby, změna klimatu a převratné technologie.

Umělá #inteligence byla přidána jako nový zájem po mnoha technologických změnách v této oblasti v posledních letech. Bulletin varoval, že umělá inteligence je „nejvýznamnějším vývojem“ v rušivém technologickém prostoru.

Podle vědců nelze popřít, že " #ai je paradigmatická #disruptivní technologie. Jakákoli fyzická hrozba, kterou AI představuje, musí být umožněna propojením se zařízeními, která mohou změnit stav fyzického světa."

Bulletin také zmínil korupci informací, kterou umožnila umělá inteligence, jako „potenciálně důležitý faktor bránící světu řešit další naléhavé hrozby“, jako jsou pandemie a jaderná rizika.

Umělá inteligence je stále více využívána také armádou a informačními operacemi, zejména pro zpravodajství, sledování, průzkum, simulaci a výcvik. Mezitím #zakladatel #DeepLearning .AI varuje před nebezpečím AI během výročního zasedání globalistického #WEF )

Vědci #varovali , že #smrtící autonomní zbraně jsou velkým problémem, zejména proto, že mohou identifikovat a zničit cíle bez lidského zásahu. Rozhodnutí dát AI kontrolu nad důležitými fyzickými #systémy , jako jsou jaderné zbraně, by mohlo potenciálně představovat přímou existenční hrozbu pro lidstvo.

Mnoho zemí si uvědomuje různé obavy z AI
Dokument také zdůraznil, že několik zemí uznalo #obavy z umělé inteligence a začalo podnikat kroky k regulaci a minimalizaci škodlivého dopadu této technologie.

V srpnu 2023 se #Čína stala první zemí, která vydala účinná nařízení pro AI.

V prosinci 2023 přijala Evropská #unie svá prozatímní #nařízení o AI, která se pak členské #státy rozhodnou přijmout.

#USA , které se za poslední rok staly centrem vývoje umělé inteligence, však dosud žádný oficiální zákon nepřijaly. V říjnu 2023 vydal #prezident Joe #Biden exekutivní #příkaz , kterým stanovil šest nových bezpečnostních standardů AI.

Bulletin varoval, že umělá inteligence a další informační technologie mohou být zneužity k tomu, aby umožnily autoritářským režimům monitorovat aktivity a svobody občanů.

Experti navíc vyjádřili obavy ohledně schopnosti umělé inteligence ovlivňovat politické #volby prostřednictvím falešných zpráv a #manipulace s informacemi před velkou celosvětovou volební sezónou v roce 2024.

Bulletin dospěl k závěru, že navzdory jejich hlubokým neshodám se první krok k řešení AI a různých hrozeb týká tří předních světových mocností: USA, Čína a #Rusko . Tyto země musí začít seriózním dialogem o těchto identifikovaných hrozbách. USA, Čína a Rusko stále mohou vytáhnout svět z pokraje #katastrofy . Měli by tak učinit „s jasností a odvahou a bez prodlení,“ varovali vědci v Bulletinu.
Deponativ
1 měsíc
Deponativ
1 měsíc
Navzdory dystopickým snahám svých vlastních společností #miliardář a #guru elektromobilů (#EV), který se stal ikonou sociálních médií, Elon #Musk kritizuje #Microsoft za jeho #plány v oblasti umělé #inteligence (#ai).

Nový čip umělé inteligence společnosti Microsoft s názvem "Maia" má být základním kamenem vznikající infrastruktury umělé inteligence této #společnosti , která konkuruje té, kterou vytváří Musk, a proto ji kritizuje.

Maia prý přinese umělou zobecněnou inteligenci (#AGI) do "každého aspektu" lidského života. AGI se od izolovaných aplikací #ai , které dnes zná mnoho lidí, liší tím, že údajně představuje skutečnou "inteligenci" po odečtení lidských vstupů, tedy #ChatGPT .

"ChatGPT a #MidJourney AI jsou skvělé, neotřelé #aplikace , ale fungují pouze v určité oblasti - AGI se spíše podobá #sci -fi počítačům, které jsme viděli v sérii #Terminátor ," vysvětluje #Wlt Report.

Pravděpodobně právě kvůli původním vazbám miliardáře a eugenika Billa Gatese na Microsoft je nyní tato společnost snadným terčem pro Muska, který se snaží namluvit konzervativcům, že se nějak liší od svých konkurentů.

Je to jen tím, že Musk nesnáší konkurenci?

Musk v těchto dnech tvrdí, že mu jde o svobodu, a podle jeho názoru bude platforma #Maia AI od Microsoftu sloužit k tomu, aby ji lidem ještě více odebrala.

"Fuj!" napsal Musk v tweetu, v němž upozornil na 50 miliard dolarů ročně, které Microsoft vynakládá na datová centra pro podporu Maia a dalších podobných typů projektů.

"Microsoft změnil svou infrastrukturu s komplexním systémovým přístupem, aby vyhověl jedinečným potřebám našich zákazníků v oblasti umělé inteligence a cloudu," uvedl k projektu Scott #Guthrie , viceprezident skupiny pro #cloud a umělou inteligenci ve společnosti Microsoft.

"Díky spuštění našeho nového AI akcelerátoru #Azure Maia a cloudového nativního procesoru Azure #Cobalt , spolu s našimi pokračujícími partnerstvími s poskytovateli křemíku, můžeme nyní poskytnout ještě větší výběr a #výkon ."

Dva na míru navržené #čipy a integrované #systémy , které Microsoft Ignite vyvinul - Microsoft Azure Maia AI #Accelerator , optimalizovaný pro úlohy umělé #inteligence a generativní umělou inteligenci; a Microsoft Azure Cobalt #CPU , #procesor založený na architektuře #Arm , určený pro běh výpočetních úloh pro obecné účely v cloudu Microsoft Cloud - představují pod
le nedávného oznámení budoucnost společnosti Microsoft.

"Čipy představují pro společnost Microsoft poslední díl skládačky, který jí umožní dodávat infrastrukturní systémy - zahrnující vše od výběru křemíku, #softwaru a serverů až po stojany a chladicí systémy - které byly navrženy odshora dolů a mohou být optimalizovány s ohledem na interní a zákaznické pracovní zatížení," uvádí společnost.

"Čipy se začnou zavádět počátkem příštího roku do datových center společnosti Microsoft a zpočátku budou pohánět služby společnosti, jako je Microsoft #Copilot nebo Azure #OpenAI Service."

Předseda představenstva a generální ředitel Microsoftu Satya Nadella tvrdí, že partnerství jeho společnosti s OpenAI je důležitou součástí jejího "produktového plánu" a že nové vedení divize v čele s Emmettem Shearem a nově najatými Samem Altmanem a Gregem Brockmanem přispěje k tomu, aby byla budoucnost Microsoftu v oblasti AI úspěšná.

"Kolik musel Bill #Gates položit na stůl, aby udržel své sny o ovládnutí světa a depopulaci prostřednictvím AI při životě?" zeptal se Kim #Dotcom ve skeptickém tweetu.

"Moje žena má neteř, která pracuje pro Microsoft. Říká, že všechny jejich kancelářské výhody (nápoje, občerstvení, obědy) byly zrušeny a zbytečné výdaje včetně všech kromě nezbytných cest vedoucích pracovníků byly omezeny," přidal se ke konverzaci komentátor článku o tom všem.

"Nebyla konkrétní ohledně detailů, jen řekla, že do úsilí o umělou inteligenci v Microsoftu se pumpují všechny dostupné zdroje."

Nebylo nic nalezeno

Omlouváme se, ale v naší databázi jsme nenašli nic pro váš vyhledávací dotaz {{search_query}}. Zkuste to prosím znovu zadáním jiných klíčových slov.