אתיקה של מכונות

אתיקה של מכונות (או מוסר מכונה, מוסר חישובי או אתיקה חישובית ) היא חלק מהאתיקה של בינה מלאכותית העוסקת בהוספת או הבטחת התנהגויות מוסריות של מכונות מעשה ידי אדם המשתמשות בבינה מלאכותית, הידועות גם בתור סוכנים אינטליגנטיים מלאכותיים. אתיקה של מכונות שונה מתחומים אתיים אחרים הקשורים להנדסה וטכנולוגיה . ש להבחין בין נושא זה לבין אתיקה של עוסקים במחשוב (אנ'), וגם בינו לבין הפילוסופיה של הטכנולוגיה (אנ'), העוסקת בהשפעות החברתיות הגדולות יותר של הטכנולוגיה.

הגדרות

עריכה

ג'יימס ה.מור (אנ'), אחד התיאורטיקנים החלוצים בתחום אתיקה מחשב (אנ'), מגדיר ארבעה סוגים של רובוטים אתיים. כחוקר בהרחבה את הפילוסופיה של בינה מלאכותית (אנ'), פילוסופיית הנפש, פילוסופיית המדע והלוגיקה, מור מגדיר ארבעה סוגים של מכונות מבחינה אתית: מכונות כסוכני השפעה אתית, סוכנים אתיים מרומזים, סוכנים אתיים מפורשים או סוכנים אתיים מלאים. מכונה יכולה להיות יותר מסוג אחד של סוכן.

  • סוכני השפעה אתית : אלו הן מערכות מכונות שנושאות השפעה אתית בין אם נועדו לכך או לא. יחד עם זאת, יש להם פוטנציאל לפעול בצורה לא אתית. מור נותן דוגמה היפותטית, "סוכן גודמן", על שמו של הפילוסוף נלסון גודמן . הסוכן של גודמן משווה תאריכים אבל יש לו את באג המילניום . הבאג הזה נבע מתכנתים שייצגו תאריכים עם שתי הספרות האחרונות בלבד של השנה, כך שכל תאריכים אחרי שנת 2000 יטופלו באופן מטעה כמוקדמים יותר מאלו של סוף המאה ה-20. סוכן גודמן היה אפוא סוכן השפעה אתית לפני 2000 וסוכן השפעה לא אתי לאחר מכן.
  • סוכנים אתיים מרומזים : לצורך שיקול של בטיחות האדם, סוכנים אלה מתוכנתים להיות בתקן אל כשל או שהם כך כתוצאה של אופן המבנה שלהם. הם לא לגמרי אתיים באופיים, אלא מתוכנתים להימנע מתוצאות לא אתיות.
  • סוכנים אתיים מפורשים : אלו הן מכונות המסוגלות לעבד תרחישים ולפעול לפי החלטות אתיות, מכונות שיש להן אלגוריתמים לפעול בצורה אתית.
  • סוכנים אתיים מלאים : אלה דומים לסוכנים אתיים מפורשים ביכולת לקבל החלטות אתיות. אבל יש להם גם תכונות מטאפיזיות אנושיות (כלומר, יש להם רצון חופשי, תודעה והתכוונות ).

(ראה מערכות מלאכותיות ואחריות מוסרית .)

  • סוכני השפעה אתית : אלו הן מערכות מכונות שנושאות השפעה אתית בין אם נועדו לכך או לא. יחד עם זאת, יש להם פוטנציאל לפעול בצורה לא אתית. מור נותן דוגמה היפותטית, "סוכן גודמן", על שמו של הפילוסוף נלסון גודמן . הסוכן של גודמן משווה תאריכים אבל יש לו את באג המילניום . הבאג הזה נבע מתכנתים שייצגו תאריכים עם שתי הספרות האחרונות בלבד של השנה, כך שכל תאריכים אחרי שנת 2000 יטופלו באופן מטעה כמוקדמים יותר מאלו של סוף המאה ה-20. סוכן גודמן היה אפוא סוכן השפעה אתית לפני 2000 וסוכן השפעה לא אתי לאחר מכן.
  • סוכנים אתיים מרומזים : לצורך שיקול של בטיחות האדם, סוכנים אלה מתוכנתים להיות בתקן אל כשל או שהם כך כתוצאה של אופן המבנה שלהם. הם לא לגמרי אתיים באופיים, אלא מתוכנתים להימנע מתוצאות לא אתיות.
  • סוכנים אתיים מפורשים : אלו הן מכונות המסוגלות לעבד תרחישים ולפעול לפי החלטות אתיות, מכונות שיש להן אלגוריתמים לפעול בצורה אתית.
  • סוכנים אתיים מלאים : אלה דומים לסוכנים אתיים מפורשים ביכולת לקבל החלטות אתיות. אבל יש להם גם תכונות מטאפיזיות אנושיות (כלומר, יש להם רצון חופשי, תודעה והתכוונות ).

(ראה מערכות מלאכותיות ואחריות מוסרית .)

היסטוריה

עריכה

לפני המאה ה-21 האתיקה של המכונות הייתה בעיקר נושא למדע בדיוני, בעיקר בשל מגבלות המחשוב והבינה המלאכותית (AI). למרות שההגדרה של "אתיקה של מכונות" התפתחה מאז, המונח נטבע על ידי מיטשל ולדרופ במאמר מגזין AI משנת 1987 "שאלה של אחריות":

דבר אחד שעולה מהדיון לעיל הוא שמכונות אינטליגנטיות יגלמו ערכים, הנחות ומטרות, בין אם המתכנתים שלהם מתכוונים לכך במודע או לא. לפיכך, ככל שמחשבים ורובוטים הופכים ליותר ויותר אינטליגנטים, יגדל גם ההכרח שנחשוב היטב ובכוונת מכוון מה הם אותם ערכים מובנים. אולי מה שאנחנו צריכים מעשית היא תיאוריה ופרקטיקה של אתיקה של מכונות, ברוח שלושת חוקי הרובוטיקה של אסימוב.[1]

בשנת 2004, לקראת אתיקה של מכונה [2] הוצגה בסדנת AAAI בנושא ארגון סוכנים: תיאוריה ופרקטיקה. [3] הונחו יסודות תיאורטיים לאתיקה של מכונות.

בסימפוזיון סתיו 2005 של AAAI בנושא אתיקה של מכונות, חוקרים נפגשו בפעם הראשונה כדי לשקול יישום של ממד אתי במערכות אוטונומיות.[4] ניתן למצוא מגוון נקודות מבט של התחום המתהווה הזה במהדורה של Machine Ethics[5] שהוצאה בעקבות אותו סימפוזיון.

בשנת 2009, פרסמה הוצאת אוניברסיטת אוקספורד את "מכונות מוסריות, ללמד רובוטים להבחין בין טוב ורע"[6] שאותו פרסמה כ"הספר הראשון שבחן את האתגר של בניית סוכנים מוסריים מלאכותיים, תוך בדיקה מעמיקה טיבעה של קבלת החלטות אנושית ושל האתיקה". הוא ציטט 450 מקורות שכ-100 מתוכם התייחסו לשאלות מרכזיות של אתיקה של מכונות.

בשנת 2011 פרסמה הוצאת אוניברסיטת קיימברידג' אוסף של מאמרים על אתיקה של מכונות בעריכת מייקל וסוזן לי אנדרסון, [5] שגם ערכה גיליון מיוחד של IEEE Intelligent Systems בנושא בשנת 2006.[7] האסופה מתמקדת באתגרים של הוספת עקרונות אתיים למכונות.[8]

בשנת 2014, הודיע המשרד האמריקאי לחקר הצי (אנ') כי יחלק מענקים של 7.5 מיליון דולר במשך חמש שנים לחוקרים באוניברסיטאות כדי לחקור שאלות של אתיקה של מכונות כפי שמיושמות לרובוטים אוטונומיים,[9] וספרו של ניק בוסטרום (אנ')

אינטליגנציית על: נתיבים, סכנות, אסטרתגיות (אנ'), שהעלה את האתיקה של מכונות כ"בעיה החשובה ביותר שהאנושות התמודדה אי פעם" אשר הגיע למקום ה-17 ברשימת ספרי המדע הנמכרים ביותר של הניו יורק טיימס .[10]

בשנת 2016 פרסם הפרלמנט האירופי מאמר [11] כדי לעודד את הנציבות להתייחס למעמדם המשפטי של רובוטים.[12] המאמר כולל סעיפים העוסקים באחריותם המשפטית של רובוטים, בהם נטען כי אחריותם צריכה להיות פרופורציונלית לרמת האוטונומיה שלהם. המאמר דן גם בהיקף המשרות שבהן יכול רובוט בעל בינה מלאכותית להחליף אדם.[13]

תחומי מיקוד

עריכה

בעיית בקרת AI

עריכה

כמה חוקרים, כמו בוסטרום וחוקר הבינה המלאכותית סטיוארט ראסל (אנ'), טוענים שאם הבינה המלאכותית תעלה על האנושות באינטליגנציה הכללית ותהפוך ל"תבונת על (אנ') ", תבונת העל החדשה הזו עלולה להפוך לחזקה וקשה לשליטה: בדיוק כפי שגורלה של גורילת ההרים תלוי רצון הטוב של האדם, כך ייתכן שגורל האנושות יהיה תלוי בפעולות של תבונת העל העתידית. [14] בספריהם, Superintelligence ו- Human Compatible בהתאמה, טוענים בוסטרום וראסל שלמרות שעתיד הבינה המלאכותית מאד לא ודאי, הסיכון לאנושות גדול דיו כדי לפעול משמעותית כבר בהווה.

להלן בעיית בקרת הבינה המלאכותית (אנ'): כיצד לבנות סוכן אינטליגנטי שיסייע ליוצריו מבלי לבנות בשוגג תבונת על שתפגע בהם. הסכנה של חוסר תכנון שליטה נכון "בפעם הראשונה" היא שתבונת על תוכל לתפוס שליטה על סביבתה ולמנוע מאיתנו לכבות אותה. אסטרטגיות בקרת AI פוטנציאליות כוללות "בקרת יכולת" (הגבלת יכולתו של בינה מלאכותית להשפיע על העולם) ו"בקרת מוטיבציה" (אחת הדרכים לבנות בינה מלאכותית שמטרותיה תואמות (אנ') ערכים אנושיים או אופטימליים). מספר ארגונים חוקרים את בעיית בקרת הבינה המלאכותית, כולל מכון העתיד של האנושות (אנ'), מכון המחקר של אינטליגנצית מכונה (אנ'), המרכז לבינה מלאכותית התואמת לאדם (אנ') ומכון עתיד החיים (אנ').

אלגוריתמים והדרכה

עריכה

פרדיגמות בינה מלאכותית נדונו, במיוחד בעניין היעילות וההטיות שלהן. בוסטרום ואליעזר יודקובסקי טענו ליתרון עצי החלטה (כגון ID3 ) על פני רשתות עצביות ואלגוריתמים גנטיים בטענה שעצי החלטה מצייתים לנורמות חברתיות מודרניות של שקיפות וניבוי (לדוגמה, החלטה לפי תקדים - stare decisis).[15] לעומת זאת, כריס סנטוס-לנג תומך ברשתות עצביות ואלגוריתמים גנטיים בטענה שיש לאפשר לנורמות בכל תקופה להשתנות וכי כישלון טבעי בעמידה מלאה בנורמות המסוימות הללו היה חיוני להפיכת בני האדם פגיעים פחות מאשר מכונות להאקרים (אנ') פליליים. [16] [17]

בשנת 2009, בניסוי במעבדה למערכות חכמות של בית הספר הפוליטכני הפדרלי של לוזאן, רובוטי AI תוכנתו לשתף פעולה זה עם זה והוטל עליהם לחפש משאב מועיל תוך הימנעות ממשאב מזיק.[18] במהלך הניסוי קובצו הרובוטים לשבטים, והקוד הגנטי הדיגיטלי של החברים המצליחים שימש לבניית הדור הבא, בסוג של אלגוריתם המכונה אלגוריתם גנטי. לאחר 50 דורות רצופים ב-AI, חברי שבט אחד גילו כיצד להבחין בין המשאב המועיל למשאב המזיק. לאחר מכן, הרובוטים למדו לשקר זה לזה בניסיון להשתלט על המשאב המועיל ולהסתירו מרובוטים אחרים.[18] באותו ניסוי, אותם רובוטים גם למדו להתנהג בחוסר אנוכיות וסימנו סכנה לרובוטים אחרים, ומתו כדי להציל רובוטים אחרים. [16] מומחים לאתיקת מכונות הטילו ספק בהשלכות של הניסוי. בניסוי, מטרות הרובוטים תוכנתו להיות "סופיות", אך מניעים אנושיים דורשים בדרך כלל למידה בלתי נגמרת.

מערכות נשק אוטונומיות

עריכה

בשנת 2009, אקדמאים ומומחים טכניים השתתפו בכנס כדי לדון בהשפעה הפוטנציאלית של ובהשפעה הפוטנציאלית של האפשרות שרובוטים ומחשבים יהיו להיות עצמאיים דיים כדי לקבל החלטות משלהם. הם דנו באיזו מידה מחשבים ורובוטים יכולים לרכוש אוטונומיה, ובאיזו מידה הם יכולים להשתמש בה כדי להוות איום או סכנה. הם ציינו שמכונות מסוימות רכשו צורות שונות של אוטונומיה למחצה, כולל היכולת למצוא מקורות כוח ולבחור באופן עצמאי מטרות לתקוף עם נשק. הם גם ציינו כי כמה וירוסי מחשב יכולים להתחמק מחיסול והשיגו "אינטליגנציה של מקקים". הם ציינו שמודעות עצמית כפי שמתוארת במדע בדיוני היא כנראה לא סבירה, אבל יש סכנות ומלכודות פוטנציאליות אחרות.[19]

כמה מומחים ואקדמאים הטילו ספק בשימוש ברובוטים בלחימה צבאית, במיוחד רובוטים בעלי מידה של אוטונומיה.[20] הצי האמריקני ממן דו"ח שמצביע על כך שככל שרובוטים צבאיים הופכים מורכבים יותר, כך עלינו לשים לב יותר להשלכות של יכולתם לקבל החלטות אוטונומיות.[21] [22] נשיא האגודה לקידום הבינה המלאכותית (אנ') הזמין מחקר בנושא זה.[23]

שילוב של אינטליגנציות מלאכותיות כלליות עם החברה האנושית

עריכה
 
רובוט מסירה (אנ') בבית חולים מול דלתות המעלית המצהירות ש-"לרובוט יש עדיפות", מצב שעלול להיחשב כהפליה הפוכה (אנ') כלפי בני אדם

נערכה עבודה מקדימה לגבי שיטות לשילוב אינטליגנציות מלאכותיות כלליות (אנ') (סוכנים אתיים מלאים כהגדרתם לעיל) עם מסגרות משפטיות וחברתיות קיימות. הגישות התמקדו במצבם המשפטי ובזכויותיהם. [24]

הטיה של למידת מכונה

עריכה

אלגוריתמי ביג דאטה ולמידת מכונה הפכו פופולריים בתעשיות רבות, כולל פרסום מקוון, דירוגי אשראי ומתן פיסקי דין פליליים, כשהם מבטיחים לספק תוצאות אובייקטיביות יותר שנובעות מנתונים, אך התבררו כדרך פוטנציאלית להנצחת אי-שוויון חברתי ואפליה.[25] [26] מחקר משנת 2015 מצא שלנשים יש סיכוי נמוך יותר לקבל מודעות דרושים בעלות הכנסה גבוהה על מגברים מ-אד-סנס (אנ') של גוגל . מחקר אחר מצא ששירות המשלוחים לאותו יום של אמזון לא היה זמין בכוונה בשכונות שחורות. גם גוגל וגם אמזון לא הצליחו לבודד את התוצאות הללו לסיבה אחת, וטענו שהתוצאות הללו נובעות מאלגוריתמי הקופסה השחורה שהם משתמשים בהם.[25]

מערכת המשפט בארה"ב החלה להשתמש בתוכנה כמותית להערכת סיכונים (אנ') בעת קבלת החלטות הקשורות לשחרור אנשים בערבות וגזר דין במאמץ להיות הוגן יותר ולהפחית את שיעור המאסר (אנ') . כלים אלה מנתחים את ההיסטוריה הפלילית של הנאשם, בין היתר. במחקר של 7,000 אנשים שנעצרו במחוז ברוורד, פלורידה, רק 20% מהאנשים שנחזו באמצעות מערכת הערכת הסיכונים של המחוז שיפשעו אכן פשעו.[26] דו"ח של פרופבליקה משנת 2016 ניתח את ציוני הסיכון למועדות שחושבו באחד הכלים הנפוצים ביותר - מערכת COMPAS של Northpointe - ובחן את התוצאות לאורך שנתיים. הדו"ח מצא כי רק 61% מאלה שנחשבו בסיכון גבוה לביצוע פשע אכן ביצעו פשעים נוספים במהלך אותה תקופה. הדו"ח גם ציין כי לנאשמים אפרו-אמריקאים יש סיכוי גבוה בהרבה להיחשב כסיכון גבוה בהשוואה לעמיתיהם הלבנים.[26] נטען כי הערכות סיכונים כאלה לפני משפט מפרות את זכויות השוויון בהגנה (אנ') על בסיס גזע, בשל גורמים הכוללים כוונה מפלה אפשרית על ידי האלגוריתם עצמו, על פי תיאוריה של יכולת משפטית חלקית של הבינה המלאכותית.[27]

בשנת 2016 פרסמה קבוצת העבודה ביג דאטה של ממשל אובמה - מפקחת על המסגרות הרגולטוריות שונות של הביג דאטה - דוחות המזהירים מפני "הפוטנציאל של קידוד אפליה בהחלטות אוטומטיות" וקראו ל"הזדמנות שווה בתכנון" עבור יישומים כגון ניקוד אשראי.[28] [29] הדוחות מעודדים שיח בין קובעי מדיניות, אזרחים ואקדמאים כאחד, אך מכירים בכך שעדיין לא קיים פתרון למניעת קידוד של הטיה ואפליה במערכות אלגוריתמיות.

מסגרות ופרקטיקות אתיות

עריכה

פרקטיקות

עריכה

במרץ 2018, במאמץ להתמודד עם החששות הגוברים מההשפעה של למידת מכונה על זכויות האדם, הפורום הכלכלי העולמי והמועצה העולמית לעתיד לזכויות אדם (אנ') פרסמו נייר לבן עם המלצות מפורטות כיצד ניתן למנוע תוצאות מפלות בלמידת מכונה.[30] הפורום הכלכלי העולמי פרסם ארבע המלצות המבוססות על "העקרונות המנחים של האו"ם לזכויות אדם" כדי לטפל ולמנוע תוצאות מפלות בלמידת מכונה: [30]

  1. הכללה פעילה : פיתוח ועיצוב של יישומי למידת מכונה חייבים לחפש באופן פעיל מגוון של קלטים, במיוחד של הנורמות והערכים של אוכלוסיות המושפעות מהפלט של מערכות בינה מלאכותית.
  2. הוגנות (אנ') : אנשים המעורבים בהמשגה, פיתוח והטמעת מערכות למידת מכונה צריכים לשקול איזו הגדרה של הוגנות חלה בצורה הטובה ביותר על ההקשר והיישום שלהן, ולתעדף אותה בארכיטקטורה ובמדדי ההערכה של מערכת למידת המכונה.
  3. הזכות להבנה : יש לחשוף את מעורבותן של מערכות למידת מכונה בקבלת החלטות המשפיעות על זכויות הפרט, והמערכות חייבות להיות מסוגלות להסביר את קבלת ההחלטות שלהן בצורה מובנת למשתמשי הקצה וניתנת לבדיקה של רשות אנושית מוסמכת. במידה שזה בלתי אפשרי והזכויות עומדות על כף המאזניים, האחראים לתכנון, פריסה ורגולציה של טכנולוגיית למידת המכונה חייבים לשקול אם יש להשתמש בה כלל.
  4. גישה לתיקון: מובילים, מעצבים ומפתחים של מערכות למידת מכונה אחראים לזהות את ההשפעות השליליות הפוטנציאליות של המערכות שלהם על זכויות האדם. עליהם לעצב דרכים גלויות לתיקון עבור אלה שנפגעו מהשפעות שונות, ולבסס תהליכים לתיקון בהקדם של כל תוצר מפלה.

בינואר 2020, מרכז ברקמן קליין לאינטרנט וחברה (אנ') באוניברסיטת הרווארד פרסם מטה-מחקר על 36 מערכות של עקרונות בינה מלאכותית בולטות וזיהה שמונה נושאים מרכזיים: פרטיות, אחריות, בטיחות ואבטחה, שקיפות והסבר, הגינות ואי-אפליה, שליטה אנושית בטכנולוגיה, אחריות מקצועית וקידום ערכים אנושיים.[31] חוקרים מהמכון הטכנולוגי הפדרלי של שוויץ בציריך ערכו מטה-מחקר דומה בשנת 2019.[32]

גישות

עריכה

היו מספר ניסיונות להפוך את האתיקה לניתנת למחשוב, או לפחות להפוך אותה לאתיקה פורמלית (אנ') . שלושת חוקי הרובוטיקה של אייזק אסימוב אינם נחשבים בדרך כלל כמתאימים לסוכן מלאכותי מוסרי,[33] אך נחקר האם ניתן להשתמש בציווי הקטגורי של קאנט.[34] צוין שהערך האנושי הוא, בהיבטים מסוימים, מורכב מאוד.[35] דרך להתגבר באופן מפורש על הקושי הזה היא לקבל ערכים אנושיים ישירות מאנשים באמצעות מנגנון כלשהו, למשל על ידי לימודם. [36] [37] גישה נוספת היא לבסס שיקולים אתיים עדכניים על מצבים דומים קודמים. זו נקראית גישה קזואיסטית, וניתן ליישם אותה באמצעות מחקר באינטרנט. הקונצנזוס ממיליון החלטות עבר יוביל להחלטה חדשה שתלויה בדמוקרטיה. [38] ברוס מ. מקלארן בנה מודל חישובי מוקדם (אמצע שנות ה-90) של קזואיסטיקה באמצעות תוכנית בשם SIROCCO שנבנתה עם בינה מלאכותית וטכניקות חשיבה מבוססות-מקרה, המאחזרת ומנתחת דילמות אתיות.[39] אבל גישה זו עלולה להוביל להחלטות המשקפות את ההטיות וההתנהגות הלא אתית של החברה. את ההשפעות השליליות של גישה זו ניתן לראות ב- טאי של מיקרוסופט, פטפטן שלמד לחזור על ציוצים גזעניים וטעונים מינית. [40]

ניסוי מחשבתי אחר מתמקד ב"שד גולם" בעל כוחות בלתי מוגבלים המציג את עצמו בפני הקורא. השדיהזה מצהיר שהוא יחזור בעוד 50 שנה ודורש לספק לו מערכת מוסר מוגדרת שלאחר מכן הוא יפעל מיד. מטרת הניסוי היא לעורר שיח על הדרך הטובה ביותר להתמודד עם הגדרת קבוצות אתיקה שמחשבים עשויים להבין.[41]

בסיפורת

עריכה

במדע בדיוני, סרטים ורומנים יוצרים שיחקו עם הרעיון של רובוטים ומכונות בעלי מודעות.

ב-Chappie של Neill Blomkamp (2015) מוצגת יכולת להעביר את התודעה למחשב.[42] סרטו של אלכס גרלנד מ-2014 Ex Machina עוקב אחר אנדרואיד בעל בינה מלאכותית שעובר וריאציה של מבחן טיורינג, מבחן שנערך למכונה כדי לראות אם ניתן להבחין בהתנהגותו מזו של אדם. סרטים כמו The Terminator (1984) ו- The Matrix (1999) משלבים את הרעיון של מכונות המפעילות את האדונים האנושיים שלהן.

הערות שוליים

עריכה
  1. ^ Waldrop, Mitchell (Spring 1987). "A Question of Responsibility". AI Magazine. 8 (1): 28–39. doi:10.1609/aimag.v8i1.572.
  2. ^ Anderson, M., Anderson, S., and Armen, C. (2004) "Towards Machine Ethics" in Proceedings of the AAAI Workshop on Agent Organization: Theory and Practice, AAAI Press
  3. ^ AAAI Workshop on Agent Organization: Theory and Practice, AAAI Press
  4. ^ "Papers from the 2005 AAAI Fall Symposium". אורכב מ-המקור ב-2014-11-29.
  5. ^ 1 2 Anderson, Michael; Anderson, Susan Leigh, eds. (ביולי 2011). Machine Ethics. Cambridge University Press. ISBN 978-0-521-11235-2. {{cite book}}: (עזרה)
  6. ^ Wallach, Wendell; Allen, Colin (2009). Moral machines : teaching robots right from wrong. Oxford University Press. ISBN 9780195374049.
  7. ^ Anderson, Michael; Anderson, Susan Leigh, eds. (ביולי–באוגוסט 2006). "Special Issue on Machine Ethics". IEEE Intelligent Systems. 21 (4): 10–63. doi:10.1109/mis.2006.70. ISSN 1541-1672. אורכב מ-המקור ב-2011-11-26. {{cite journal}}: (עזרה)
  8. ^ Siler, Cory (2015). "Review of Anderson and Anderson's Machine Ethics". Artificial Intelligence. 229: 200–201. doi:10.1016/j.artint.2015.08.013.
  9. ^ Tucker, Patrick (13 במאי 2014). "Now The Military Is Going To Build Robots That Have Morals". Defense One. נבדק ב-9 ביולי 2014. {{cite news}}: (עזרה)
  10. ^ "Best Selling Science Books". New York Times. September 8, 2014. Retrieved 9 November 2014.
  11. ^ "European Parliament, Committee on Legal Affairs. Draft Report with recommendations to the Commission on Civil Law Rules on Robotics". European Commission. נבדק ב-12 בינואר 2017. {{cite web}}: (עזרה)
  12. ^ Wakefield, Jane (2017-01-12). "MEPs vote on robots' legal status – and if a kill switch is required". BBC News. נבדק ב-12 בינואר 2017. {{cite news}}: (עזרה)
  13. ^ "European Parliament resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics". European Parliament. נבדק ב-8 בנובמבר 2019. {{cite web}}: (עזרה)
  14. ^ Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (First ed.). Oxford University Press. ISBN 978-0199678112.
  15. ^ Bostrom, Nick; Yudkowsky, Eliezer (2011). "The Ethics of Artificial Intelligence" (PDF). Cambridge Handbook of Artificial Intelligence. Cambridge Press. אורכב מ-המקור (PDF) ב-2016-03-04. נבדק ב-2011-06-28.
  16. ^ 1 2 Santos-Lang, Chris (2002). "Ethics for Artificial Intelligences". אורכב מ-המקור ב-2011-12-03. שגיאת ציטוט: תג <ref> בלתי־תקין; השם "SantosLang2002" הוגדר כמה פעמים עם תוכן שונה
  17. ^ Santos-Lang, Christopher (2014). "Moral Ecology Approaches to Machine Ethics" (PDF). In van Rysewyk, Simon; Pontier, Matthijs (eds.). Machine Medical Ethics. Intelligent Systems, Control and Automation: Science and Engineering. Vol. 74. Switzerland: Springer. pp. 111–127. doi:10.1007/978-3-319-08108-3_8. ISBN 978-3-319-08107-6.
  18. ^ 1 2 Fox, Stuart (18 באוגוסט 2009). "Evolving Robots Learn To Lie To Each Other". Popular Science. {{cite news}}: (עזרה)
  19. ^ Markoff, John (25 ביולי 2009). "Scientists Worry Machines May Outsmart Man". New York Times. {{cite news}}: (עזרה)
  20. ^ Palmer, Jason (3 באוגוסט 2009). "Call for debate on killer robots". BBC News. {{cite news}}: (עזרה)
  21. ^ Science New Navy-funded Report Warns of War Robots Going "Terminator" (אורכב 28.07.2009 בארכיון Wayback Machine), by Jason Mick (Blog), dailytech.com, February 17, 2009.
  22. ^ Flatley, Joseph L. (18 בפברואר 2009). "Navy report warns of robot uprising, suggests a strong moral compass". Engadget. {{cite web}}: (עזרה)
  23. ^ AAAI Presidential Panel on Long-Term AI Futures 2008–2009 Study, Association for the Advancement of Artificial Intelligence, Accessed 7/26/09.
  24. ^ Sotala, Kaj; Yampolskiy, Roman V (2014-12-19). "Responses to catastrophic AGI risk: a survey". Physica Scripta. 90 (1): 8. doi:10.1088/0031-8949/90/1/018001. ISSN 0031-8949.
  25. ^ 1 2 Crawford, Kate (25 ביוני 2016). "Artificial Intelligence's White Guy Problem". The New York Times. {{cite news}}: (עזרה)
  26. ^ 1 2 3 Julia Angwin; Surya Mattu; Jeff Larson; Lauren Kircher (23 במאי 2016). "Machine Bias: There's Software Used Across the Country to Predict Future Criminals. And it's Biased Against Blacks". ProPublica. {{cite news}}: (עזרה) שגיאת ציטוט: תג <ref> בלתי־תקין; השם "ProPublica2016" הוגדר כמה פעמים עם תוכן שונה
  27. ^ Thomas, C.; Nunez, A. (2022). "Automating Judicial Discretion: How Algorithmic Risk Assessments in Pretrial Adjudications Violate Equal Protection Rights on the Basis of Race". Law & Inequality (באנגלית). 40 (2): 371–407. doi:10.24926/25730037.649.
  28. ^ Executive Office of the President (במאי 2016). "Big Data: A Report on Algorithmic Systems, Opportunity, and Civil Rights" (PDF). Obama White House. {{cite web}}: (עזרה)
  29. ^ "Big Risks, Big Opportunities: the Intersection of Big Data and Civil Rights". Obama White House. 4 במאי 2016. {{cite web}}: (עזרה)
  30. ^ 1 2 "How to Prevent Discriminatory Outcomes in Machine Learning". World Economic Forum. 12 במרץ 2018. נבדק ב-2018-12-11. {{cite web}}: (עזרה)
  31. ^ Fjeld, Jessica; Achten, Nele; Hilligoss, Hannah; Nagy, Adam; Srikumar, Madhulika (2020). "Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-Based Approaches to Principles for AI". SSRN Working Paper Series. doi:10.2139/ssrn.3518482. ISSN 1556-5068.
  32. ^ Jobin, Anna; Ienca, Marcello; Vayena, Effy (2019). "The global landscape of AI ethics guidelines". Nature Machine Intelligence. 1 (9): 389–399. arXiv:1906.11668. doi:10.1038/s42256-019-0088-2. ISSN 2522-5839.
  33. ^ Anderson, Susan Leigh (2011): The Unacceptability of Asimov's Three Laws of Robotics as a Basis for Machine Ethics. In: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. New York: Oxford University Press. pp.285–296. מסת"ב 9780511978036
  34. ^ Powers, Thomas M. (2011): Prospects for a Kantian Machine. In: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. New York: Oxford University Press. pp.464–475.
  35. ^ Muehlhauser, Luke, Helm, Louie (2012): Intelligence Explosion and Machine Ethics.
  36. ^ Yudkowsky, Eliezer (2004): Coherent Extrapolated Volition.
  37. ^ Guarini, Marcello (2011): Computational Neural Modeling and the Philosophy of Ethics. Reflections on the Particularism-Generalism Debate. In: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. New York: Oxford University Press. pp.316–334.
  38. ^ Anderson, M. and Anderson, S. (2007). Creating an Ethical Intelligent Agent. AI Magazine, Volume 28(4).
  39. ^ McLaren, Bruce M. (2003). "Extensionally defining principles and cases in ethics: An AI model". Artificial Intelligence. 150 (1–2): 145–181. doi:10.1016/S0004-3702(03)00135-8.
  40. ^ Wakefield, Jane (24 במרץ 2016). "Microsoft chatbot is taught to swear on Twitter". BBC News. נבדק ב-2016-04-17. {{cite news}}: (עזרה)
  41. ^ Nazaretyan, A. (2014). A. H. Eden, J. H. Moor, J. H. Søraker and E. Steinhart (eds): Singularity Hypotheses: A Scientific and Philosophical Assessment. Minds & Machines, 24(2), pp.245–248.
  42. ^ Brundage, Miles; Winterton, Jamie (17 במרץ 2015). "Chappie and the Future of Moral Machines". Slate. נבדק ב-30 באוקטובר 2019. {{cite web}}: (עזרה)