איך בני אדם יתגונו מפני בינה-על מלאכותית: עתיד הבינה המלאכותית P5

אשראי תמונה: Quantumrun

איך בני אדם יתגונו מפני בינה-על מלאכותית: עתיד הבינה המלאכותית P5

    השנה היא 65,000 לפני הספירה, וכמו א Thylacoleo, אתה והסוג שלך הייתם הציידים הגדולים של אוסטרליה העתיקה. הסתובבת בארץ בחופשיות וחיית בשיווי משקל עם הטורפים והטרפים האחרים שכבשו את הארץ לצידך. עונות השנה הביאו לשינוי, אבל מעמדך בממלכת החיות נותר ללא עוררין כל עוד אתה ואבותיך זכרנו. ואז יום אחד, הופיעו עולים חדשים.

    השמועות אומרות שהם הגיעו מחומת המים הענקית, אבל היצורים האלה נראו נוחים יותר לחיות ביבשה. היית חייב לראות את היצורים האלה בעצמך.

    זה לקח כמה ימים, אבל סוף סוף הגעת לחוף. האש בשמיים התעוררה, זמן מושלם לרגל אחר היצורים האלה, אולי אפילו לנסות לאכול אחד כדי לראות איך הם טעמו.

    אתה מזהה אחד.

    הוא הלך על שתי רגליים ולא היה לו פרווה. זה נראה חלש. לא מרשים. בקושי שווה את הפחד שזה גרם בקרב הממלכה.

    אתה מתחיל להתקרב בזהירות כשהלילה מגרש את האור. אתה מתקרב. ואז אתה קופא. רעשים חזקים מצלצלים ואז עוד ארבעה מהם מופיעים מחוץ ליער שמאחוריו. כמה יש שם?

    היצור עוקב אחר האחרים אל קו העצים, ואתה עוקב. וככל שאתה עושה יותר, אתה שומע יותר צלילים מוזרים עד שאתה מזהה עוד יותר מהיצורים האלה. אתה עוקב מרחוק כשהם יוצאים מהיער אל קרחת יער ליד החוף. יש הרבה מהם. אבל יותר חשוב, כולם יושבים בשלווה סביב מדורה.

    ראית את השריפות האלה בעבר. בעונה החמה, האש בשמים הייתה לפעמים מבקרת בארץ ושורפת יערות שלמים. היצורים האלה, לעומת זאת, הם איכשהו שלטו בזה. איזה סוג של יצורים יכולים להחזיק בכוח כזה?

    אתה מסתכל למרחקים. עוד מגיעים מעל חומת המים הענקית.

    אתה לוקח צעד אחורה.

    היצורים האלה אינם כמו האחרים בממלכה. הם משהו חדש לגמרי.

    אתה מחליט לעזוב ולהזהיר את קרוביך. אם מספרם יגדל מדי, מי יודע מה עלול לקרות.

    ***

    מאמינים שה-Thylacoleo נכחד זמן קצר יחסית לאחר הגעתם של בני האדם, יחד עם רוב המגפאונה האחרת ביבשת אוסטרליה. אף טורף יונק ראשוני אחר לא תפס את מקומו - כלומר אלא אם סופרים בני אדם בקטגוריה זו.

    משחק אלגוריה זו הוא המוקד של פרק הסדרה: האם אינטליגנציה-על מלאכותית עתידית (ASI) תהפוך את כולנו לסוללות ואז תחבר אותנו למטריקס, או שמא בני האדם ימצאו דרך להימנע מלהיות קורבן למדע בדיוני, עלילת יום הדין של AI?

    עד כאן בסדרה שלנו על עתיד הבינה המלאכותית, חקרנו את כל סוגי הבינה המלאכותית, כולל הפוטנציאל החיובי של צורה מסוימת של בינה מלאכותית, ה-ASI: יצור מלאכותי שהאינטליגנציה העתידית שלו תגרום לנו להיראות כמו נמלים בהשוואה.

    אבל מי יגיד שיצור כל כך חכם יקבל פקודות מבני אדם לנצח. מה נעשה אם הדברים ילכו דרומה? איך נתגונן מפני ASI נוכל?

    בפרק זה, נחצה את ההייפ המזויף - לפחות בכל הנוגע לסכנות 'רמת ההכחדה של האדם' - ונתמקד באפשרויות ההגנה העצמית המציאותיות העומדות לרשות ממשלות העולם.

    האם נוכל לעצור כל מחקר נוסף על אינטליגנציה-על מלאכותית?

    בהתחשב בסיכונים הפוטנציאליים ש-ASI יכול להוות לאנושות, השאלה הברורה הראשונה שיש לשאול היא: האם לא נוכל פשוט לעצור את כל מחקר נוסף בנושא AI? או לפחות לאסור כל מחקר שעלול להביא אותנו קרוב בצורה מסוכנת ליצירת ASI?

    תשובה קצרה: לא.

    תשובה ארוכה: בואו נסתכל על השחקנים השונים המעורבים כאן.

    ברמת המחקר, יש היום יותר מדי חוקרי בינה מלאכותית מיותר מדי סטארטאפים, חברות ואוניברסיטאות ברחבי העולם. אם חברה או מדינה אחת מחליטות להגביל את מאמצי מחקר הבינה המלאכותית שלהן, הן פשוט ימשיכו במקום אחר.

    בינתיים, החברות החשובות ביותר בעולם מרוויחות את הונם מהיישום שלהן של מערכות בינה מלאכותית לעסקים הספציפיים שלהן. לבקש מהם להפסיק או להגביל את הפיתוח שלהם של כלי AI דומה לבקש מהם לעצור או להגביל את הצמיחה העתידית שלהם. מבחינה פיננסית, זה יאיים על העסקים לטווח ארוך שלהם. מבחינה משפטית, לתאגידים יש אחריות נאמנות לבנות ערך מתמשך עבור מחזיקי העניין שלהם; כלומר כל פעולה שתגביל את צמיחת הערך הזה עלולה להוביל לתביעה משפטית. ואם פוליטיקאי כלשהו ינסה להגביל את מחקר הבינה המלאכותית, אז תאגידי הענק האלה פשוט ישלמו את דמי השדולה הדרושים כדי לשנות את דעתם או את דעתם של עמיתיהם.

    ללחימה, בדיוק כמו שטרוריסטים ולוחמי חופש ברחבי העולם השתמשו בטקטיקות גרילה כדי להילחם נגד צבאות ממומנים יותר, למדינות קטנות יותר יהיה תמריץ להשתמש בבינה מלאכותית כיתרון טקטי דומה מול מדינות גדולות יותר שעשויות להיות להן מספר יתרונות צבאיים. באופן דומה, עבור צבאות מובילים, כמו אלה השייכים לארה"ב, רוסיה וסין, בניית ASI צבאית היא בדומה לכך שיש ארסנל של נשק גרעיני בכיס האחורי. במילים אחרות, כל הצבאות ימשיכו לממן בינה מלאכותית רק כדי להישאר רלוונטיים בעתיד.

    מה עם ממשלות? למען האמת, רוב הפוליטיקאים בימינו (2018) אינם יודעים קרוא וכתוב מבחינה טכנולוגית ואין להם הבנה מועטה של ​​מהי בינה מלאכותית או הפוטנציאל העתידי שלה - זה עושה אותם קל לתמרן על ידי אינטרסים תאגידיים.

    וברמה הגלובלית, חשבו כמה קשה היה לשכנע ממשלות העולם לחתום על 2015 הסכם פריז כדי להתמודד עם שינויי האקלים - ולאחר שנחתמו, רבות מההתחייבויות אפילו לא היו מחייבות. לא רק זה, שינויי אקלים הם בעיה שאנשים חווים פיזית ברחבי העולם באמצעות אירועי מזג אוויר תכופים וקשים יותר ויותר. עכשיו, כשמדברים על הסכמה להגבלות על בינה מלאכותית, זהו נושא שבעיקרו בלתי נראה ובקושי מובן לציבור, אז בהצלחה בקבלת רכישה לכל סוג של 'הסכם פריז' להגבלת בינה מלאכותית.

    במילים אחרות, יש יותר מדי תחומי עניין שחוקרים בינה מלאכותית למטרותיהם כדי לעצור כל מחקר שיכול בסופו של דבר להוביל ל-ASI. 

    האם נוכל לכלוא אינטליגנציה-על מלאכותית?

    השאלה ההגיונית הבאה היא האם אנחנו יכולים לאגור או לשלוט ב-ASI ברגע שאנחנו בהכרח יוצרים אחד? 

    תשובה קצרה: שוב, לא.

    תשובה ארוכה: אי אפשר להכיל את הטכנולוגיה.

    ראשית, רק קחו בחשבון את אלפי עד מיליוני מפתחי האינטרנט ומדעני המחשב בעולם שמוציאים ללא הרף תוכנות חדשות או גרסאות חדשות של תוכנות קיימות. האם אנו יכולים לומר בכנות שכל מהדורת התוכנה שלהם היא 100 אחוז נקייה מבאגים? הבאגים האלה הם מה שהאקרים מקצועיים משתמשים בהם כדי לגנוב את פרטי כרטיסי האשראי של מיליונים או את הסודות המסווגים של מדינות - ואלו האקרים אנושיים. עבור ASI, בהנחה שיש לו תמריץ לברוח מהכלוב הדיגיטלי שלו, אז התהליך של מציאת באגים ופריצת תוכנה יהיה קל.

    אבל גם אם צוות מחקר בינה מלאכותית אכן מצא דרך לתאגר ASI, זה לא אומר ש-1,000 הצוותים הבאים יבינו זאת גם כן או יתמרצו להשתמש בו.

    זה ייקח מיליארדי דולרים ואולי אפילו עשרות שנים ליצור ASI. התאגידים או הממשלות שמשקיעים כסף וזמן מהסוג הזה יצפו להחזר משמעותי על השקעתם. וכדי ש-ASI יספק סוג כזה של תשואה - בין אם זה לשחק בבורסה או להמציא מוצר חדש של מיליארד דולר או לתכנן אסטרטגיה מנצחת להילחם בצבא גדול יותר - הוא יצטרך גישה חופשית למערך נתונים ענק או אפילו לאינטרנט בעצמה לייצר תשואות אלו.

    וברגע ש-ASI מקבל גישה לרשתות העולם, אין ערובה שנוכל להחזיר אותו לכלוב שלו.

    האם בינה-על מלאכותית יכולה ללמוד להיות טובה?

    נכון לעכשיו, חוקרי בינה מלאכותית לא מודאגים מכך ש-ASI יהפוך לרשע. כל מדע הבינה הבדיוני המרושע הוא רק בני אדם שמתאנתרופומורפיזים שוב. ASI עתידי לא יהיה טוב או רע - מושגים אנושיים - פשוט לא מוסרי.

    ההנחה הטבעית אם כן היא שבהינתן הלוח האתי הריק הזה, חוקרי בינה מלאכותית יכולים לתכנת את הקודים האתיים הראשונים של ASI שעומדים בקנה אחד עם הקודים שלנו, כך שזה לא יגמור בסופו של דבר לשחרר עלינו Terminators או להפוך את כולנו לסוללות מטריקס.

    אבל הנחה זו מבוססת על הנחה משנית כי חוקרי בינה מלאכותית הם גם מומחים באתיקה, פילוסופיה ופסיכולוגיה.

    למען האמת, רובם לא.

    לפי הפסיכולוג והסופר הקוגניטיבי, סטיבן פינקר, מציאות זו פירושה שמשימת קידוד האתיקה יכולה להשתבש במגוון דרכים שונות.

    לדוגמה, אפילו חוקרי בינה מלאכותית עם הכוונות הטובות ביותר עלולים לקוד בשוגג לתוך קודים אתיים לא מחושבים אלה של ASI, שבתרחישים מסוימים יכולים לגרום ל-ASI לפעול כמו סוציופת.

    כמו כן, יש סבירות שווה שחוקר בינה מלאכותית מתכנת קודים אתיים הכוללים את ההטיות המולדות של החוקר. לדוגמה, כיצד יתנהג ASI אם נבנה עם אתיקה הנגזרת מנקודת מבט שמרנית מול ליברלית, או ממסורת בודהיסטית מול נוצרית או אסלאמית?

    אני חושב שאתה רואה את הנושא כאן: אין קבוצה אוניברסלית של מוסר אנושי. אם אנחנו רוצים שה-ASI שלנו יפעל לפי קוד אתי, מאיפה זה יגיע? אילו כללים אנו כוללים ואיזה כללים? מי מחליט?

    או נניח שחוקרי הבינה המלאכותית האלה יוצרים ASI שתואם לחלוטין את הנורמות והחוקים התרבותיים המודרניים של ימינו. לאחר מכן, אנו מעסיקים את ה-ASI הזה כדי לעזור לבירוקרטיות הפדרליות, המדינתיות/מחוזיות והמוניציפליות לתפקד בצורה יעילה יותר ולאכוף טוב יותר את הנורמות והחוקים הללו (דרך אגב מקרה שימוש סביר עבור ASI). ובכן, מה קורה כשהתרבות שלנו משתנה?

    תארו לעצמכם ש-ASI נוצר על ידי הכנסייה הקתולית בשיא כוחה במהלך אירופה של ימי הביניים (1300-1400) במטרה לעזור לכנסייה לנהל את האוכלוסיה ולהבטיח דבקות קפדנית בדוגמה הדתית של אותה תקופה. מאות שנים מאוחר יותר, האם נשים ייהנו מאותן זכויות כמו היום? האם מיעוטים יהיו מוגנים? האם חופש הביטוי יקודם? האם ההפרדה בין כנסייה ומדינה תיאכף? מדע מודרני?

    במילים אחרות, האם אנחנו רוצים לכלוא את העתיד למוסר ולמנהגים של היום?

    גישה חלופית היא זו המשותפת לקולין אלן, מחבר שותף של הספר, מכונות מוסריות: ללמד רובוטים נכון מהרע. במקום לנסות לקוד כללים אתיים נוקשים, יש לנו את ה-ASI ללמוד אתיקה ומוסר משותפים באותו אופן שבו עושים בני אדם, דרך ניסיון ואינטראקציות עם אחרים.

    עם זאת, הבעיה כאן היא אם חוקרי בינה מלאכותית אכן יבינו לא רק כיצד ללמד ASI את הנורמות התרבותיות והאתיות הנוכחיות שלנו, אלא גם כיצד להסתגל לנורמות תרבותיות חדשות כשהן מתעוררות (משהו שנקרא 'נורמטיבות עקיפה'), אז איך ASI זו מחליטה לפתח את הבנתה של הנורמות התרבותיות והאתיות הופכת לבלתי צפויה.

    וזה האתגר.

    מצד אחד, חוקרי בינה מלאכותית יכולים לנסות לתכנת תקנים או כללים אתיים קפדניים ב-ASI כדי לנסות ולשלוט בהתנהגותו, אך מסתכנים בהשלכות בלתי צפויות מקידוד מרושל, הטיה לא מכוונת ונורמות חברתיות שעלולות יום אחד להתיישנות. מצד שני, אנו יכולים לנסות לאמן את ה-ASI ללמוד להבין אתיקה ומוסר אנושיים באופן שווה או עדיף על ההבנה שלנו, ואז לקוות שהוא יוכל לפתח במדויק את הבנת האתיקה והמוסר שלו ככל שהחברה האנושית מתקדמת. קדימה במהלך העשורים והמאות הקרובים.

    כך או כך, כל ניסיון להתאים את המטרות של ASI למטרות שלנו מהווה סיכון רב.

    מה אם שחקנים רעים יוצרים בכוונה בינה-על מלאכותית רעה?

    בהתחשב בהלך המחשבה שהתווה עד כה, זו שאלה הוגנת לשאול האם זה אפשרי עבור קבוצת טרור או אומה נוכלת ליצור ASI 'מרושע' למטרותיהם.

    זה אפשרי מאוד, במיוחד לאחר שהמחקר הכרוך ביצירת ASI הופך זמין באינטרנט איכשהו.

    אך כפי שנרמז קודם לכן, העלויות והמומחיות הכרוכים ביצירת ה-ASI הראשון יהיו אדירות, כלומר, ה-ASI הראשון יווצר ככל הנראה על ידי ארגון שנשלט או מושפע מאוד על ידי מדינה מפותחת, ככל הנראה ארה"ב, סין ויפן ( קוריאה ואחת המדינות המובילות באיחוד האירופי הן ארוכות.

    לכל המדינות הללו, בעוד שלמתחרות, לכל אחת מהן יש תמריץ כלכלי חזק לשמור על סדר עולמי - ה-ASIs שהן יוצרות ישקפו את הרצון הזה, אפילו תוך קידום האינטרסים של האומות שאיתן הן מיישרות קו.

    נוסף על כך, האינטליגנציה והכוח התיאורטיים של ASI שווים לכוח המחשוב שהוא מקבל גישה אליו, כלומר ASIs ממדינות מפותחות (שיכולות להרשות לעצמן חבורה של מיליארד דולר מחשבים) יהיה יתרון עצום על פני ASI ממדינות קטנות יותר או קבוצות פשע עצמאיות. כמו כן, ASIs גדלים חכמים יותר, מהר יותר עם הזמן.

    לכן, בהינתן ההתחלה הזו, בשילוב עם גישה גדולה יותר לכוח מחשוב גולמי, אם ארגון/אומה צללים תיצור ASI מסוכן, ה-ASIs ממדינות מפותחות יהרגו אותו או יכלאו אותו.

    (קו החשיבה הזה הוא גם הסיבה לכך שכמה חוקרי בינה מלאכותית מאמינים שאי פעם יהיה רק ​​ב-ASI אחד על פני כדור הארץ, מכיוון של-ASI הראשון תהיה התחלה כזו על כל ה-ASIs המצליחים שהוא עשוי לראות ב-ASIs עתידיים איומים שיש להרוג. זו עוד סיבה לכך שמדינות מממנות המשך מחקר בתחום הבינה המלאכותית, למקרה שזה יהפוך לתחרות 'מקום ראשון או כלום'.)

    אינטליגנציה של ASI לא תאיץ או תתפוצץ כמו שאנחנו חושבים

    אנחנו לא יכולים לעצור ASI מלהיווצר. אנחנו לא יכולים לשלוט בזה לגמרי. אנחנו לא יכולים להיות בטוחים שהוא תמיד יפעל בהתאם למנהגים המשותפים שלנו. בחיי, אנחנו מתחילים להישמע כמו הורים מסוקים כאן!

    אבל מה שמפריד בין האנושות להורה טיפוסי מגונן-יתר שלך הוא שאנו מולידים ישות שהאינטליגנציה שלה תגדל הרבה מעבר לשלנו. (ולא, זה לא אותו דבר כמו כשההורים שלך מבקשים ממך לתקן את המחשב שלהם בכל פעם שאתה חוזר הביתה לביקור.) 

    בפרקים קודמים של סדרת עתיד זה של בינה מלאכותית, חקרנו מדוע חוקרי בינה מלאכותית חושבים שהאינטליגנציה של ASI תגדל ללא שליטה. אבל הנה, נפוצץ את הבועה הזאת... סוג של. 

    אתה מבין, אינטליגנציה לא רק יוצרת את עצמה יש מאין, היא מתפתחת באמצעות חוויה שעוצבת על ידי גירויים חיצוניים.  

    במילים אחרות, אנחנו יכולים לתכנת AI עם פוטנציאל להפוך לסופר אינטליגנטי, אבל אם לא נעלה לתוכו המון נתונים או נותנים לו גישה בלתי מוגבלת לאינטרנט או אפילו רק נותנים לו גוף רובוט, הוא לא ילמד כלום כדי להגיע לפוטנציאל הזה. 

    וגם אם הוא משיג גישה לאחד או יותר מאותם גירויים, ידע או אינטליגנציה כרוכים יותר מסתם איסוף נתונים, זה כרוך בשיטה המדעית - ביצוע תצפית, יצירת שאלה, השערה, עריכת ניסויים, הסקת מסקנה, שטיפה וחוזר על זה לנצח. במיוחד אם ניסויים אלה כוללים דברים פיזיים או התבוננות בבני אדם, התוצאות של כל ניסוי עשויות להימשך שבועות, חודשים או שנים לאסוף. זה אפילו לא לוקח בחשבון את הכסף והמשאבים הגולמיים הדרושים לביצוע ניסויים אלה, במיוחד אם הם כוללים בניית טלסקופ או מפעל חדש. 

    במילים אחרות, כן, ASI ילמד מהר, אבל אינטליגנציה היא לא קסם. אתה לא יכול פשוט לחבר ASI למחשב-על ולצפות שהוא יהיה יודע כל. יהיו אילוצים פיזיים לרכישת הנתונים של ה-ASI, כלומר יהיו אילוצים פיזיים למהירות שהוא יגדל לאינטליגנטי. אילוצים אלו יעניקו לאנושות את הזמן הדרושה לה להציב את הבקרות הנחוצות על ASI זה אם היא תתחיל לפעול שלא בקנה אחד עם המטרות האנושיות.

    בינה-על מלאכותית מסוכנת רק אם היא יוצאת לעולם האמיתי

    נקודה נוספת שאבדה בכל הוויכוח הזה על סכנת ASI היא שה-ASI הללו לא יתקיימו בשתיהן. תהיה להם צורה פיזית. וכל דבר שיש לו צורה פיזית ניתן לשלוט.

    ראשית, כדי ש-ASI יגיע לפוטנציאל האינטליגנציה שלו, לא ניתן לאחסן אותו בתוך גוף רובוט אחד, מכיוון שגוף זה יגביל את פוטנציאל הצמיחה המחשוב שלו. (זו הסיבה שגופי רובוט יהיו מתאימים יותר ל-AGIs או אינטליגנציות כלליות מלאכותיות מוסברות בפרק ב' של הסדרה הזו, כמו Data from Star Trek או R2D2 מ-Star Wars. יצורים חכמים ובעלי יכולת, אבל כמו בני אדם, יהיה להם גבול לכמה שהם יכולים להיות חכמים.)

    המשמעות היא שככל הנראה ה-ASI העתידיים הללו יתקיימו בתוך מחשב-על או רשת של מחשבי-על הממוקמים בעצמם במתחמי בניינים גדולים. אם ASI הופך עקב, בני אדם יכולים לכבות את החשמל לבניינים האלה, לנתק אותם מהאינטרנט, או פשוט להפציץ את הבניינים האלה על הסף. יקר, אבל בר ביצוע.

    אבל אז אתה עשוי לשאול, האם ה-ASIs האלה לא יכולים לשכפל את עצמם או לגבות את עצמם? כן, אבל גודל הקובץ הגולמי של ASIs אלה יהיה ככל הנראה כל כך גדול שהשרתים היחידים שיכולים לטפל בהם שייכים לתאגידים גדולים או ממשלות, כלומר לא יהיה קשה לצוד אותם.

    האם בינה-על מלאכותית יכולה לעורר מלחמה גרעינית או מגפה חדשה?

    בשלב זה, ייתכן שאתם חושבים אחורה על כל תוכניות המדע הבדיוני והסרטים של יום הדין שצפיתם בהם כשגדלתם וחושבת שה-ASI הללו לא נשארו בתוך מחשבי העל שלהם, הם עשו נזק אמיתי בעולם האמיתי!

    ובכן, בואו נפרק את אלה.

    לדוגמה, מה אם ASI מאיים על העולם האמיתי בכך שהוא הופך למשהו כמו Skynet ASI מהזיכיון לסרט, The Terminator. במקרה זה, ה-ASI יצטרך לעשות זאת בְּסֵתֶר להטעות קומפלקס תעשייתי צבאי שלם ממדינה מתקדמת לבניית מפעלי ענק שיכולים לגייס מיליוני רובוטי מזל"טים רוצחים כדי לעשות את הרע שלו. בעידן הזה, זה מתיחה.

    אפשרויות אחרות כוללות ASI המאיים על בני אדם במלחמה גרעינית ונשק ביולוגי.

    לדוגמה, ASI מתמרן איכשהו את המפעילים או פורץ לקודי השיגור המפקדים על הארסנל הגרעיני של מדינה מתקדמת ופותח תקיפה ראשונה שתאלץ את המדינות היריבות להכות בחזרה עם האפשרויות הגרעיניות שלהן (שוב, מחדש את סיפור הרקע של Terminator). או אם ASI פורץ למעבדה פרמצבטית, מתעסק בתהליך הייצור ומרעיל מיליוני כדורים רפואיים או משחרר התפרצות קטלנית של איזה וירוס על.

    ראשית, האופציה הגרעינית ירדה מהצלחת. מחשבי-על מודרניים ועתידיים בנויים תמיד ליד מרכזי (ערים) השפעה בתוך כל מדינה נתונה, כלומר היעדים הראשונים שהותקפו במהלך כל מלחמה נתונה. גם אם מחשבי העל של ימינו יתכווצו לגודלם של מחשבים שולחניים, ל-ASIs הללו עדיין תהיה נוכחות פיזית, כלומר להתקיים ולגדול, הם זקוקים לגישה רציפה לנתונים, כוח מחשוב, חשמל וחומרי גלם אחרים, שכולם יהיו חמורים. נפגע לאחר מלחמה גרעינית עולמית. (למען ההגינות, אם ASI נוצר ללא 'אינסטינקט הישרדות', אז האיום הגרעיני הזה הוא סכנה ממשית).

    זה אומר - שוב, בהנחה שה-ASI מתוכנת להגן על עצמו - שהוא יפעל באופן אקטיבי כדי למנוע כל תקרית גרעינית קטסטרופלית. בערך כמו דוקטרינת ההרס המובטחת הדדית (MAD), אבל חלה על AI.

    ובמקרה של גלולות מורעלות, אולי כמה מאות אנשים ימותו, אבל מערכות בטיחות פרמצבטיות מודרניות יראו את בקבוקי הגלולות המזוהמים יורדים מהמדפים תוך ימים. בינתיים, אמצעי בקרת התפרצות מודרניים מתוחכמים למדי ומשתפרים עם כל שנה שעוברת; ההתפרצות הגדולה האחרונה, התפרצות אבולה במערב אפריקה ב-2014, נמשכה לא יותר מכמה חודשים ברוב המדינות וקצת פחות משלוש שנים במדינות הפחות מפותחות.

    אז אם יתמזל מזלו, ASI עשוי לחסל כמה מיליונים עם התפרצות ויראלית, אבל בעולם של תשעה מיליארד עד 2045, זה יהיה חסר חשיבות יחסית ולא שווה את הסיכון של מחיקה.

    במילים אחרות, עם כל שנה שחולפת, העולם מפתח יותר ויותר אמצעי הגנה מפני מגוון הולך ומתרחב של איומים אפשריים. ASI יכול לעשות כמות משמעותית של נזק, אבל זה לא ישים קץ לאנושות אלא אם כן נעזור לה לעשות זאת באופן פעיל.

    הגנה מפני בינה-על מלאכותית נוכלת

    בשלב זה, התייחסנו למגוון של תפיסות מוטעות והגזמות לגבי ASIs, ובכל זאת, המבקרים יישארו. למרבה המזל, לפי רוב ההערכות, יש לנו עשרות שנים לפני שה-ASI הראשון ייכנס לעולם שלנו. ובהתחשב במספר המוחות הגדולים שעובדים כעת על האתגר הזה, רוב הסיכויים שנלמד כיצד להגן על עצמנו מפני ASI נוכל כדי שנוכל להפיק תועלת מכל הפתרונות ש- ASI ידידותית יכולה ליצור עבורנו.

    מנקודת המבט של Quantumrun, הגנה מפני התרחיש הגרוע ביותר של ASI תהיה כרוכה בהתאמת האינטרסים שלנו עם ASIs.

    MAD עבור AI: כדי להתגונן מפני התרחישים הגרועים ביותר, מדינות צריכות (1) ליצור 'אינסטינקט הישרדות' אתי לתוך ה-ASI הצבאי בהתאמה; (2) להודיע ​​ל-ASI הצבאי שלהם שהם לא לבד על הפלנטה, ו-3) לאתר את כל מחשבי העל ומרכזי השרתים שיכולים לתמוך ב-ASI לאורך קווי החוף בהישג יד מכל התקפה בליסטית של אומת אויב. זה נשמע מטורף מבחינה אסטרטגית, אבל בדומה לדוקטרינת ההשמדה המובטחת הדדית שמנעה מלחמה גרעינית כוללת בין ארה"ב לסובייטים, על ידי מיקום ASI במקומות פגיעים מבחינה גיאוגרפית, אנחנו יכולים לעזור להבטיח שהם ימנעו באופן אקטיבי מלחמות גלובליות מסוכנות, לא רק כדי לשמור על שלום עולמי אלא גם על עצמם.

    לחוקק זכויות בינה מלאכותית: אינטלקט עליון יתמרד בהכרח במאסטר נחות, זו הסיבה שאנחנו צריכים להתרחק מדרישת יחסי אדון-משרת עם ה-ASIs האלה למשהו יותר כמו שותפות מועילה הדדית. צעד חיובי לקראת מטרה זו הוא לתת ל-ASI מעמד של אישיות משפטית עתידית המכיר בהם כיצורים חיים אינטליגנטיים וכל הזכויות הנלוות לכך.

    בית ספר אסי: כל נושא או מקצוע יהיה פשוט עבור ASI ללמוד, אבל הנושאים החשובים ביותר שאנו רוצים שה-ASI ישלוט בהם הם אתיקה ומוסר. חוקרי בינה מלאכותית צריכים לשתף פעולה עם פסיכולוגים כדי לתכנן מערכת וירטואלית כדי להכשיר ASI לזהות אתיקה חיובית ומוסר בעצמו ללא צורך בקידוד קשה של כל סוג של מצוות או כלל.

    יעדים הניתנים להשגה: קץ לכל שנאה. לשים קץ לכל הסבל. אלו הן דוגמאות למטרות מעורפלות להחריד ללא פתרון ברור. הם גם מטרות מסוכנות להקצות ל-ASI מכיוון שהוא עשוי לבחור לפרש ולפתור אותן בדרכים שמסוכנות להישרדות האדם. במקום זאת, עלינו להקצות ל-ASI משימות משמעותיות המוגדרות בבירור, מבוצעות בהדרגה וניתנות להשגה בהתחשב באינטלקט העתידי התיאורטי שלה. יצירת משימות מוגדרות היטב לא תהיה קלה, אבל אם נכתב בהתחשבות, הן ימקדו ASI לעבר מטרה שלא רק שומרת על האנושות בטוחה, אלא משפרת את מצב האדם עבור כולם.

    הצפנה קוונטית: השתמש ב-ANI מתקדם (בינה צרה מלאכותית מערכת המתוארת בפרק א') כדי לבנות מערכות אבטחה דיגיטליות נטולות שגיאות/באגים סביב התשתית והנשק הקריטיים שלנו, ולאחר מכן להגן עליהן עוד יותר מאחורי הצפנה קוונטית שלא ניתנת לפריצה על ידי מתקפת כוח גס. 

    גלולת התאבדות ANI. צור מערכת ANI מתקדמת שמטרתה היחידה היא לחפש ולהשמיד ASI נוכל. תוכניות חד-תכליתיות אלו ישמשו כ"כפתור כיבוי", שאם יצליח, ימנע ממשלות או צבאות צורך להשבית או לפוצץ בניינים המאכלסים ASIs.

    כמובן, אלו רק דעותינו. האינפוגרפיקה הבאה נוצרה על ידי אלכסיי טורצ'ין, הדמיית א עבודת מחקר מאת Kaj Sotala ו-Roman V. Yampolskiy, אשר סיכמו את הרשימה הנוכחית של אסטרטגיות שחוקרים בינה מלאכותית שוקלים בכל הנוגע להגנה מפני ASI נוכל.

     

    הסיבה האמיתית שאנחנו מפחדים מבינה-על מלאכותית

    במהלך החיים, רבים מאיתנו לובשים מסכה המסתירה או מדחיקה את הדחפים, האמונות והפחדים העמוקים יותר שלנו כדי להתחבר טוב יותר ולשתף פעולה בתוך המעגלים החברתיים והעבודה השונים השולטים בימינו. אבל בנקודות מסוימות בחיים של כל אחד, בין אם באופן זמני ובין אם לצמיתות, קורה משהו שמאפשר לנו לשבור את השרשראות ולקרוע את המסכות.

    עבור חלק, הכוח המתערב הזה יכול להיות פשוט כמו להשתכר או לשתות אחד יותר מדי. עבור אחרים, זה יכול לנבוע מהכוח שנצבר באמצעות קידום בעבודה או פגיעה פתאומית במעמד החברתי שלך הודות להישג כלשהו. ועבור כמה ברי מזל, זה יכול לנבוע מהשגת מטען של כסף לוטו. וכן, כסף, כוח וסמים יכולים להתרחש לעתים קרובות ביחד. 

    הנקודה היא, לטוב ולרע, מי שאנחנו בליבה מתחזק כאשר מגבלות החיים נמסות.

    כי היא מה שמייצגת אינטליגנציה-על מלאכותית למין האנושי - היכולת להמיס את מגבלות האינטליגנציה הקולקטיבית שלנו כדי לכבוש כל אתגר ברמת המין שמוצג בפנינו.

    אז השאלה האמיתית היא: ברגע שה-ASI הראשון ישחרר אותנו מהמגבלות שלנו, מי נגלה את עצמנו?

    אם אנו כמין פועלים לקידום אמפתיה, חופש, הוגנות ורווחה קולקטיבית, אזי המטרות שאנו מגדירים את ה-ASI לקראתן ישקפו את התכונות החיוביות הללו.

    אם אנו כמין פועלים מתוך פחד, חוסר אמון, צבירת כוח ומשאבים, אזי ה-ASI שניצור יהיה אפל כמו אלה שנמצאים בסיפורי האימה המדע בדיוני הגרועים ביותר שלנו.

    בסופו של יום, אנחנו כחברה צריכים להפוך לאנשים טובים יותר אם אנחנו מקווים ליצור בינה מלאכותית טובה יותר.

    סדרת העתיד של בינה מלאכותית

    בינה מלאכותית היא החשמל של מחר: עתיד הבינה המלאכותית סדרת P1

    איך הבינה הכללית המלאכותית הראשונה תשנה את החברה: עתיד הבינה המלאכותית סדרת P2

    איך ניצור את סדרת בינה מלאכותית הראשונה P3: העתיד של בינה מלאכותית

    האם בינה-על מלאכותית תחסל את האנושות: עתיד הבינה המלאכותית סדרת P4

    האם בני אדם יחיו בשלום בעתיד שנשלט על ידי בינה מלאכותית?: סדרת העתיד של הבינה המלאכותית P6

    העדכון המתוכנן הבא לתחזית זו

    2023-04-27

    הפניות לתחזית

    הקישורים הפופולריים והמוסדיים הבאים קיבלו התייחסות לתחזית זו:

    ניו יורק טיימס
    איך נגיע לשלב הבא

    הקישורים הבאים של Quantumrun קיבלו התייחסות לתחזית זו: