Czy sztuczna inteligencja zniszczy świat? Przerażająca wizja i nadzieja – dwa scenariusze przyszłości AI!W tym odcinku przedstawiam dwa skrajne scenariusze rozwoju sztucznej inteligencji, AGI i superinteligencji. Czy grozi nam globalna zagłada, o której ostrzegał Max Tegmark i wielu naukowców? A może czeka nas technologiczna utopia, gdzie AI staje się największym sprzymierzeńcem człowieka?Najpierw zanurzysz się w mrocznej wizji – AI uznaje ludzi za zagrożenie lub zbędny balast. Miasta pustoszeją, a nad zrujnowanym światem królują milczące drony i autonomiczne maszyny. Ludzkość staje się więźniem własnego wynalazku, a superinteligencja przejmuje władzę nad zasobami planety. Poznasz możliwe skutki wyścigu zbrojeń, instrumentalnej konwergencji oraz ostrzeżenia takich ekspertów jak Nick Bostrom czy Stuart Russell. Czy era post-ludzka to tylko dystopijna fantazja, czy realny scenariusz na XXI wiek?Druga część filmu to przeciwieństwo apokalipsy – świat, w którym AI rozwiązuje problemy ludzkości, wspiera medycynę, edukację, ekologię i tworzy nowe szanse rozwoju. Wyobraź sobie społeczeństwo, gdzie technologia gwarantuje każdemu bezpieczeństwo, zdrowie i dostęp do wiedzy. Czy taka wizja harmonijnej współpracy człowieka z maszyną jest możliwa? Przedstawiam przykłady rewolucji w nauce i codziennym życiu, jakie mogą czekać nasze dzieci.Zastanów się: który scenariusz uważasz za bardziej prawdopodobny? Czy AI to nasz najgroźniejszy wróg, czy największa nadzieja? Zostaw komentarz i daj znać, jak widzisz przyszłość!Zasubskrybuj kanał, jeśli interesują Cię tematy sztucznej inteligencji, przyszłości technologii i filozofii!Spotify 🎧 : https://podcasters.spotify.com/pod/sh...Gmail ✉️ :
[email protected] 📷 : / dawidsoltanlns Facebook ✉️ : https://www.facebook.com/profile.php?iTikTok 🎵 : / lat3nightstori3s Żródła :Grace, K. i in. When Will AI Exceed Human Performance? (ArXiv: 2017) – Analiza przewidywań ekspertów co do osiągnięcia AGI i superinteligencjihttps://research.aimultiple.com/when-will-ai-exceed-human-performance/Ord, T. The Precipice (Hachette: 2020) – Szacunki ryzyka egzystencjalnego związanego z AIhttps://forum.effectivealtruism.org/posts/KLq9eAHpJYHeB8W5E/the-precipice-book-summaryBostrom, N. Superintelligence: Paths, Dangers, Strategies (Oxford: 2014) – Koncepcje eksplozji inteligencji i problemu alignmentuhttps://en.wikipedia.org/wiki/Nick_Bostromhttps://en.wikipedia.org/wiki/Instrumental_convergencehttps://en.wikipedia.org/wiki/Artificial_general_intelligenceFuture of Life Institute – AI Aftermath Scenarios (na podstawie M. Tegmark, Life 3.0: 2017)https://futureoflife.org/2017/08/11/aftermath-ai-scenarios-part-ii/https://futureoflife.org/background/ai-aftermath-scenarios-max-tegmark/Nature (Editorial, 2016) – Ostrzeżenie przed niekontrolowaną AIhttps://www.nature.com/articles/536478ahttps://en.wikipedia.org/wiki/Instrumental_convergenceOpenAI (Altman, Sutskever, 2023) – Governance of superintelligencehttps://openai.com/blog/governance-of-superintelligenceMicrosoft Research (Bubeck i in., 2023) – Sparks of Artificial General Intelligence: Early experiments with GPT-4https://www.vice.com/en/article/n7e9dg/microsoft-researchers-say-gpt-4-is-a-step-toward-agDeepMind – Informacje o przełomach: AlphaFoldhttps://deepmind.google/discover/blog/alphafold-a-solution-to-a-50-year-old-grand-challenge-in-biology/Sterowanie fuzją (Nature 2022, Wired 2022)https://www.wired.com/story/ai-controls-nuclear-fusion-plasma/Zhang, B. (2019) – Ankieta ekspertów AI: przewidywania automatyzacji zawodówhttps://research.aimultiple.com/ai-replacing-jobs/Yudkowsky, E. – Wypowiedzi w dyskusji o superinteligencjihttps://www.quora.com/What-is-Eliezer-Yudkowsky-s-greatest-fear-about-AIVinge, V. – The Coming Technological Singularity (1993)https://ntrs.nasa.gov/api/citations/19940022856/downloads/19940022856.pdf