פתח תפריט נגישות
בינה מלאכותית – סיכונים והזדמנויות | פרופ' יצחק בן ישראל

לאחרונה, העולם כולו החל לדבר על בינה מלאכותית (Artificial Intelligence). הרעיון אומנם ישן, והמאמרים הראשונים שדיברו על שימוש במחשבים כדי ליצור מכונות אינטיליגנטיות, הופיעו כבר בשנות החמישים של המאה העשרים (כולל מושגים כמו למידת מכונה, רשתות נוירונים כדומה), אבל האבן שנזרקה לשווקי עולם בדמות ה-ChatGPT , עשתה את מה שדורות של חכמים לא הצליחו לעשות בעבר, והבינה המלאכותית הפכה לשיחת היום.


האם ייתכן שהתחלנו בתהליך שיביא לקץ המין האנושי? – האם אנחנו צונחים לקראת עידן המכונות? אם זה יקרה, זו לא תהיה הפעם הראשונה בהיסטוריה האנושית

ברור כיום כמעט לכל אחד שבינה-מלאכותית-יוצרת (Generative Artificial Intelligence) יכולה לשפר את חיינו, כמעט בכל תחום. עצם היכולת לתת למחשב לקרוא ולנתח מספר עצום של נתונים, בכמות שהיא מעבר ליכולת העיכול של המוח הביולוגי, ולהוציא מהן תובנות "בעצמו" ללא הנחיית בני אנוש, משנה לחלוטין שטחים רבים.

פתאום נפתחו תחומים חדשים כמו מכוניות ללא נהג אנושי (רכב אוטונומי), פיתוח תרופות שיתאימו באופן אישי למידע הגנטי והקליני הספציפי של חולה מסויים, או אפילו ניתוח תשדורות שאנו קולטים מהחלל והבחנה בין אותות שנוצרו ע"י הטבע ובין כאלו שנשלחו ע"י יצורים אינטיליגנטיים (אם יש כאלו ברחבי החלל החיצון).

לצד ההבטחה קיים גם חשש גדול. האם טמונות סכנות בטכנולגיה החדשה? ואם כן, האם יש בידינו להגביל אותן ולא לבנות ולשחרר מוצרים העלולים לגרום לאסון? או – הסכנה הגדולה מכל – אולי יגיע הרגע בו המכונות יהיו כל כך יותר חכמות מאיתנו עד שהן יחליטו כי אין להן יותר צורך בנו, וייפטרו מאיתנו? האם יכול להיות שסוף התהליך, שתחילתו בתיבה שפתחנו, יביא כליה על המין האנושי? בקצרה – האם נגיע לעידן המכונות?

לפני שנמשיך הלאה, הרשו לי לגלות לכם שאם זה יקרה, לא תהיה זו הפעם הראשונה בהיסטוריה האנושית.

אני מניח שהקורא שהגיע עד כאן זוקף גבה. כיצד אינו יודע שפעם כבר היו על כדור הארץ מכונות אינליגנטיות שהיו יותר חכמות מהאנשים שחיו אז, ושניצלו את עליונותם השכלית כדי להתגבר על בני האנוש ובסופו של דבר אף השמידו אותם?

כדי להשיב על שאלה זו, הרשו לי להתעכב קצת על המושג "מכונה". מהי מכונה? בהקשר של מחשב ספרתי, אנו מדברים כיום על משהו המורכב מרכיבים רבים ובעיקר מטרנזיסטורים העשויים מסיליקון וחומרים אחרים. כל טרנזיסטור מכיל "ביט (bit) אחד: אם עובר בו זרם, אנו אומרים שערך הביט הוא 1, ואם לא עובר בו זרם, ערך הביט הוא 0. מתקיים היום מרוץ לפיתוח טכנולוגיות אחרות של חישוב, ובראשן הטכנולוגיות הקוונטיות. שם האלמנט המרכזי אינו מכיל ביט אחד (כמו בטרנזיסטור) אלא תערובת של 1 ו-0 בו זמנית.  אנו מכנים אלמנט כזה בשם קיוביט (Qbit) שהינו קיצור של Quantum BIT. לפי הידוע לנו כיום, אנו מניחים שהטבע כולו (כולל מוח האדם) הוא קוונטי, וכי החישוב הדיגיטלי שאנו עושים כיום עם ביטים (שיש להם רק 2 מצבים) הוא פרימיטבי ביחס למה שמתבצע בטבע. כך או כך, גם אם מוח האדם עצמו הוא מחשב קוונטי "מתקדם" ולא מחשב דיגיטאלי "נחות" כמו אלו שאנו בונים מטרנזיסטורים, עדיין הוא מכונה. המכונה הזו אינה בנויה מסיליקון, היא הרבה יותר מורכבת מהמחשבים הספרתיים שהמצאנו, ונכון למצב כיום, היא בדרך כלל יותר אינטיליגנטית מהם. אבל היא עדיין מכונה העשויה מחומרים (ביולוגיים) המצויים בטבע, וכפופה לחוקי הטבע.

יצורים דמויי אדם (הומינידיים) החלו להתהלך על כדור הארץ כבר לפני כמה מיליוני שנים. רק לפני כרבע מיליון שנה נוצרה מוטציה חדשה, אי שם במרכז אפריקה, של זן חדש שאנו קוראים לו הומו-סאפיינס. אחד מיתרונותיו העיקריים היה נפח מוח גדול יותר, מה שהתבטא באינטיליגנציה גבוהה יותר. התהליך האבולוציוני הביא לכך שהמכונה החדשה (הומו-סאפיינס) הלכה והשתלטה על העולם תוך שהיא דוחקת את רגליהן, ואף מביאה להעלמותן של מכונות ישנות יותר (כמו הומו ארקטוס או האדם הניאנדרטאלי למשל).

למרות שקשה לנו לקבל זאת, גם אנחנו "מכונה" במובן שתיארתי לעיל. יתירה מכך, גם אנחנו מכונה לומדת. ההתנהגות שלנו אינה מוכתבת רק ע"י התוכנה הפנימית איתה נולדנו (כמו הדנ"א), אלא גם ע"י הניסיון שאנו אוספים בחיינו שמביא להשתנות התנהגותנו. לא רק זאת, אלא שאנו גם יודעים כיצד "לייצר" מכונות חדשות כאלו: אנו קוראים להם בשם ילדים.

ברגע שאנו מבינים זאת, נעשה ברור מאליו שמכונה אינטליגנטית יכולה גם יכולה לגרום לדברים בלתי צפויים, שלחלקם יהיו תוצאות שליליות ביותר. בגלל התכונה הבסיסית של שינוי ההתנהגות של המכונות שאנו יוצרים (ילדים), כתוצאה מניסיון חיים שהם לומדים ללא שליטה של ההורים, ברור לנו גם שבעיקרון לא ניתן להבטיח שמכונות שנוצרו כך, לעולם לא יעשו רע.

תארו לעצמכם שבעולם עתידי כלשהו, לא יהיה מותר לעשות ילדים ללא רישיון מהממשלה, וכי הממשלה לא תיתן רישיון כזה, למי שלא יוכיח שהילד שיווצר לעולם לא יעשה רע. ברור מהטיעון לעיל שזה בלתי אפשרי בעיקרון.

ממשלות רבות בעולם מנסות כיום, לצד קידום מואץ של טכנולוגיות הבינה המלאכותית, גם לשלוט בפיתוח ע"י רגולציה שלא תאפשר נזק עתידי ע"י הטכנולוגיות הללו. כמו שהסברתי לעיל, זה בלתי אפשרי. מכונה אינטליגנטית אינה עוד "מכאנית" במובן הישן: פעולתה היא בלתי צפיה בעיקרון.

עם זאת, יש הרבה מה לעשות בתחום זה, כמו שאנו עושים עם המכונות הנבונות הלומדות המכונות ילדים. אנו צריכים למצוא דרך "לחנך" את המכונות וללמדן לא רק מה אפשר לעשות, אלא גם מה אסור לעשות. יתכן גם שנצטרך להעניק להן כוח רק בהדרגה, לאחר שניווכח כי הן "מחונכות היטב". אתיקה של בינה מלאכותית היא איפוא חלק בלתי נפרד מפיתוח היכולת.

זו אגב הסיבה לכך, שהאתיקה והרגולציה נכללו כאחד מן הנושאים העיקריים בתוכנית הלאומית לבינה מלאכותית שהוגשה לממשלה לפני מספר שנים. לצערנו, אי היציבות וההידרדרות של המערכת הפוליטית בשנים אלו, הביאה לכך שהתוכנית לא יושמה למעשה. למרות שהפסדנו מספר שנים, עדיין לא מאוחר להרים את המקל ולהתחיל לרוץ. זה יהיה גם אחד הנושאים העיקריים שידונו בכנס שבוע הסייבר שייערך בקמפוס אוניברסיטת ת"א.

פרופ' איציק בן-ישראל מלווה מקצועית ואקדמאית את קורס בינה מלאכותית למנהלים.ות שתפתח בפברואר ועומד בראש תכנית הסייבר למשלחות מחו"ל של להב

המאמר פורסם לראשונה במגזין פורבס

המאמר נכתב על ידי פרופ' יצחק בן ישראל

ראש סדנת יובל נאמן למדע, טכנולוגיה וביטחון, ראש מרכז הסייבר באוניברסיטת תל אביב, ויושב ראש סוכנות החלל הישראלית במשרד המדע והטכנולוגיה.


מאמרים מאת פרופ' יצחק בן ישראל


פרופ' יצחק בן ישראל מרצה בתכניות

  • חדש

    בינה מלאכותית למנהלים.ות

    טכנולוגיות ה – AI  וה Gen-AI בשילוב כלי Big Data ומערכות סייבר משנות את פני העולם כפי שאנו מכירים אותו...

    ימי ב׳ 16:00-20:15
    8 מפגשים