טיוטה:ניק בוסטרום

תמונה של ניק בוסטרום (2020)

ניק בוסטרום (Nick Bostrom; נולד ב-10 במרץ 1970) הינו פילוסוף שוודי המשמש כפרופסור באוניברסיטת אוקספורד. בוסטרום עוסק בבינה מלאכותית והשלכותיה על הקיום האנושי, בגבולות האתים של שיפורים גנטים בבני אדם, בעיקרון האנטרופי, בהעלאת תודעה, ובסיכונים של בינה מלאכותית.

בשנת 2011, הקים בוסטרום את תכנית אוקספורד מרטין לחקר ההשלכות של טכנולוגיה עתידנית[1], והוא המנהל־מייסד של מכון " Future of Humanity Institute" באוניברסיטת אוקספורד[2].

מחקר

עריכה

סיכון אקזיסטנציאלי

עריכה

מחקרו של בוסטרום נוגע בעתיד האנושות והשלכות ארוכות טווח של הטכנולוגיה. הוא דן בסיכון אקזיסטנציאלי (קיומי), אותו הוא מגדיר כ-"תוצאות שליליות שיכחידו את החיים התבוניים בכדור־הארץ או יקצרו לצמיתות ובאופן דרסטי את הפוטנציאל שלהם". בוסטרום מודאג במיוחד מסיכונים אנתרופוגנים, שהם סיכונים הנובעים מפעילויות אנושיות, בפרט טכנולוגיה בינה מלאכותית מתקדמות, ננוטכנולוגיה מולקולרית, או ביולוגיה סינתטית[3][4].

היפותזת העולם הפגיע

עריכה

במאמרו The Vulnerable World Hypothesis[5], בוסטרום הציע שיכולות להיות טכנולוגיות שכאשר יתגלו - יהיה בכוחן להרוס ציוויליזציות אנושיות באופן אוטומטי. בוסטרום מציע מסגרת עבודה עבור המיון וההתמודדות עם הפגיעויות הללו. הוא גם מביא דוגמאות אפשריות לניסויים מחשבתיים על כיצד פגיעויות אלו יכלו להתרחש, היסטורית. למשל, אם היה יותר קל לפתח נשק גרעיני או שהדבר היה מצית את האטמוספרה (כפי שרוברט אופנהיימר חשש)[6].

טיעון הסימולציה

עריכה
  ערך מורחב – השערת הסימולציה

בוסטרום מציין שעד לפני עשרות שנים בודדות לא היו משחקי מחשב כלל ואילו היום כבר קיימות פלטפורמות של מציאות מדומה בהן משתתפים מיליוני שחקנים מכל העולם וכן סימולטורים המציגים מציאות מדומה משכנעת. לטענתו, בקצב ההתקדמות הנוכחי של הטכנולוגיה, בעתיד הלא רחוק ניתן יהיה להפעיל סימולציות שיכללו מיליארדי יצורים, שיהיו כה מתקדמות שאותם יצורים ממוחשבים בעלי בינה מלאכותית יאמינו שהם בעלי תודעה עם חופש רצון לשלוט בגורלם. יתרה מזו, ברגע שתהיה קיימת האפשרות הטכנולוגית להריץ סימולציה כזו, האנושות תריץ עותקים רבים של הסימולציה, כפי שקורה במשחקי מחשב חדשניים. בכדור הארץ יתקיימו אז במקביל מיליוני ציוויליזציות, שרק אחת מהן פיזית במהותה.

לפי טיעון הסימולציה של בוסטרום, סביר מאוד שאחד משלושת המשפטים הבאים הינו נכון[7]:

  1. המין האנושי ייכחד לפני שיגיע לשלב 'פוסט-אנושי'.
  2. לא סביר שציוויליזציות פוסט-אנושיות יריצו סימולציות.
  3. אנחנו כמעט בוודאות חיים בתוך סימולציה ממוחשבת.

העיקרון האנטרופי

עריכה

בוסטרום פירסם מספר מאמרים על העיקרון האנטרופי, וגם את הספר Anthropic Bias: Observation Selection Effects in Science and Philosophy. בספרו, הוא מבקר ניסוחים קודמים של העיקרון האנטרופי, ביניהם של ברנדון קרטר, ג'ון לזלי, ג'ון בראו ופרנק טיפלר. לפי בוסטרום, קיים שימוש לקוי במידע אינדקסיקלי בתחומי חקר רבים (ביניהם קוסמולוגיה, פילוסופיה, תיאוריית האבולוציה, תיאוריית המשחקים, ופיזיקת קוונטים) והתיאוריה האנטרופית צריכה להתמודד עם קשיים אלו.

עבודות נבחרות

עריכה

ספרים

עריכה
  • 2002 – Anthropic Bias: Observation Selection Effects in Science and Philosophy, ISBN 0-415-93858-9
  • 2008 – Global Catastrophic Risks, edited by Bostrom and Milan M. Ćirković, ISBN 978-0-19-857050-9
  • 2009 – Human Enhancement, edited by Bostrom and Julian Savulescu, ISBN 0-19-929972-2
  • 2014 – Superintelligence: Paths, Dangers, Strategies, ISBN 978-0-19-967811-2

פרסומים נוספים

עריכה
  • Bostrom, Nick (1998). "How Long Before Superintelligence?". Journal of Future Studies. 2.
  • (January 2000). "Observer-relative chances in anthropic reasoning?". Erkenntnis. 52 (1): 93–108. doi:10.1023/A:1005551304409. JSTOR 20012969. S2CID 140474848.
  • (October 2001). "The Meta-Newcomb Problem". Analysis. 61 (4): 309–310. doi:10.1111/1467-8284.00310. JSTOR 3329010.
  • (March 2002). "Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards". Journal of Evolution and Technology. 9 (1).
  • (April 2003). "Are You Living in a Computer Simulation?" (PDF). Philosophical Quarterly. 53 (211): 243–255. doi:10.1111/1467-9213.00309. JSTOR 3542867.
  • (2003). "The Mysteries of Self-Locating Belief and Anthropic Reasoning" (PDF). Harvard Review of Philosophy. 11 (Spring): 59–74. doi:10.5840/harvardreview20031114.
  • (November 2003). "Astronomical Waste: The Opportunity Cost of Delayed Technological Development". Utilitas. 15 (3): 308–314. CiteSeerX 10.1.1.429.2849. doi:10.1017/S0953820800004076. S2CID 15860897.
  • (June 2005). "In Defense of Posthuman Dignity". Bioethics. 19 (3): 202–214. doi:10.1111/j.1467-8519.2005.00437.x. PMID 16167401.
  • with Tegmark, Max (December 2005). "How Unlikely is a Doomsday Catastrophe?". Nature. 438 (7069): 754. arXiv:astro-ph/0512204. Bibcode:2005Natur.438..754T. doi:10.1038/438754a. PMID 16341005. S2CID 4390013.
  • (2006). "What is a Singleton?". Linguistic and Philosophical Investigations. 5 (2): 48–54.
  • with Ord, Toby (July 2006). "The Reversal Test: Eliminating Status Quo Bias in Applied Ethics" (PDF). Ethics. 116 (4): 656–680. doi:10.1086/505233. PMID 17039628. S2CID 12861892.
  •  with Sandberg, Anders (December 2006). "Converging Cognitive Enhancements" (PDF). Annals of the New York Academy of Sciences. 1093 (1): 201–207. Bibcode:2006NYASA1093..201S. CiteSeerX 10.1.1.328.3853. doi:10.1196/annals.1382.015. PMID 17312260. S2CID 10135931.
  • (January 2008). "Drugs can be used to treat more than disease" (PDF). Nature. 452 (7178): 520. Bibcode:2008Natur.451..520B. doi:10.1038/451520b. PMID 18235476. S2CID 4426990.
  • (2008). "The doomsday argument". Think. 6 (17–18): 23–28. doi:10.1017/S1477175600002943. S2CID 171035249.
  • (2008). "Where Are They? Why I hope the search for extraterrestrial life finds nothing" (PDF). Technology Review (May/June): 72–77.
  • with Sandberg, Anders (September 2009). "Cognitive Enhancement: Methods, Ethics, Regulatory Challenges" (PDF). Science and Engineering Ethics. 15 (3): 311–341. CiteSeerX 10.1.1.143.4686. doi:10.1007/s11948-009-9142-5. PMID 19543814. S2CID 6846531.
  • (2009). "Pascal's Mugging" (PDF). Analysis. 69 (3): 443–445. doi:10.1093/analys/anp062. JSTOR 40607655.
  • with Ćirković, Milan; Sandberg, Anders (2010). "Anthropic Shadow: Observation Selection Effects and Human Extinction Risks" (PDF). Risk Analysis. 30 (10): 1495–1506. doi:10.1111/j.1539-6924.2010.01460.x. PMID 20626690. S2CID 6485564.
  • (2011). "Information Hazards: A Typology of Potential Harms from Knowledge" (PDF). Review of Contemporary Philosophy. 10: 44–79. ProQuest 920893069.
  •  Bostrom, Nick (2011). "THE ETHICS OF ARTIFICIAL INTELLIGENCE" (PDF). Cambridge Handbook of Artificial Intelligence. Archived from the original (PDF) on 4 March 2016. Retrieved 13 February 2017.
  •  Bostrom, Nick (2011). "Infinite Ethics" (PDF). Analysis and Metaphysics. 10: 9–59.
  • (May 2012). "The Superintelligent Will: Motivation and Instrumental Rationality in Advanced Artificial Agents" (PDF). Minds and Machines. 22 (2): 71–84. doi:10.1007/s11023-012-9281-3. S2CID 7445963.
  • with Armstrong, Stuart; Sandberg, Anders (November 2012). "Thinking Inside the Box: Controlling and Using Oracle AI" (PDF). Minds and Machines. 22 (4): 299–324. CiteSeerX 10.1.1.396.799. doi:10.1007/s11023-012-9282-2. S2CID 9464769.
  • (February 2013). "Existential Risk Reduction as Global Priority". Global Policy. 4 (3): 15–31. doi:10.1111/1758-5899.12002.
  • with Shulman, Carl (February 2014). "Embryo Selection for Cognitive Enhancement: Curiosity or Game-changer?" (PDF). Global Policy. 5 (1): 85–92. CiteSeerX 10.1.1.428.8837. doi:10.1111/1758-5899.12123.
  • with Muehlhauser, Luke (2014). "Why we need friendly AI" (PDF). Think. 13 (36): 41–47. doi:10.1017/S1477175613000316. S2CID 143657841.
  •  Bostrom, Nick (September 2019). "The Vulnerable World Hypothesis". Global Policy. 10 (4): 455–476. doi:10.1111/1758-5899.12718.