fbpx

של מי הפרצוף הזה?

חצי שנה אחרי השקת ChatGPT: הבינה המלאכותית מתפשטת, המנגנונים שאמורים לפקח עליה- דווקא מתכווצים

0

הייתה שאלה אחת שרציתי לשאול במפגש שהתקיים בשבוע שעבר עם סם אלטמן ואיליה סוצקבר, מייסדי OpenAI – האימא של ChatGPT.
אבל לא פעלתי מספיק מהר ובנחישות. התחרות בשלב השאלות הייתה קשה: כיאה לרוקסטארים שהם, שאחראים על הלהיטים הטכנולוגיים הגדולים ביותר של השנים האחרונות – חיכו להם גרופיז להוטים שרק המתינו להזדמנות לשאול אותם שאלות במפגש שהתקיים באוניברסיטת תל-אביב. הטכנולוגיה, שהושקה רק לפני חצי שנה, הפכה לסיפור הצלחה מסחרר ולבעלת קצב האימוץ הגבוה ביותר אי פעם: לקח לה חמישה ימים בלבד להגיע למיליון משתמשים, וכחודשיים כדי להגיע למאה מיליון.

״מה השימוש האהוב עליך ב-Chat GPT?״, ״איזה תכונות אתם מחפשים בעובדים שאתם מגייסים ל-OpenAI?״ ו״מה מיוחד בישראל בעיניך?״ היו כמה מהשאלות שהם קיבלו.

אני רציתי לשאול דווקא על ההתמודדות עם כמויות הזבל ש-Chat GPT ושאר מנועי הבינה המלאכותית הולכים לייצר בשנים הקרובות. כן, אני יודעת, זו לא שאלה על מה יקרה כשהבינה המלאכותית תשתלט על העולם ותפעל על דעת עצמה נגד המין האנושי – שזה אחד מתרחישי האימה הנפוצים שנוהגים להזכיר בהקשר הזה.

הדאגה שלי היא משני אזורים מרכזיים: מיסאינפורמציה ודיסאינפורמציה. כלומר, מהפצה של מידע שקרי בתום לב או בזדון.

אסביר: מנועי הבינה המלאכותית מבוססי הטקסט, כמו Chat GPT (טוב, מעכשיו: ג׳פטו), נועדו לייצר טקסט שנראה אמיתי. אם אני ממש אפשט את זה: הם התאמנו על כמויות גדולות של דאטה ויודעים איך נראה טקסט אמיתי – אבל הם לא יודעים מה נכון ומה לא. לכן, כשאנחנו שואלים את ג׳פטו שאלה – התשובה שלו לאו דווקא נכונה. וזה עוד לפני שהזכרנו שהמידע הנגיש למנוע הוא עד שנת 2021 בלבד. 

כל עוד אנחנו מפעילים חשיבה ביקורתית, לוקחים בערבון מוגבל את התשובות שלו ומתאימים את המשימות למגבלות – זה באמת כלי מדהים. הבעיה היא שיש אנשים שהחליפו את השימוש בגוגל בג׳פטו, ושם מתחילות בעיות אם לא מודעים לכך שהמידע פשוט לא נכון. 

החשש השני שלי נוגע למי שמשתמשים ביכולות בינה מלאכותית יוצרת (Generative AI) לצרכים זדוניים.  נתחיל בידידנו ג׳פטו. בתוך רגע הוא יכול לייצר כתבה שנראית אמיתית לחלוטין מבחינת מבנה הטקסט, השפה וכו׳ – אבל המידע יהיה מומצא לחלוטין. כמו שאמרנו, זו המומחיות שלו – לייצר טקסט שנראה אמיתי. התפקיד שלו הוא לא לרדוף אחרי האמת.

הבינה המלאכותית היוצרת היא גן עדן לפושעים ולשקרנים. לא פלא שכבר משתמשים בה לפשעים (זוכרים את הסיפור של הבנק האמירתי ששדדו ממנו 35 מיליון דולר באמצעות זיוף קול בטכנולוגיות deep fake?).

וזה כמובן לא רק טקסטים:
בדו״ח שלה לסיכום שנת 2022, פירסמה Meta (חברת האם של פייסבוק) את הנתון הזה: ביותר משני שלישים מהחשבונות הפיקטיביים שזיהו בפייסבוק בשנה האחרונה, נעשה שימוש בתמונות שנוצרו באמצעות בינה מלאכותית. תמונות שנראות כמו אנשים אמיתיים, אלא שהן פרי דמיונה של מכונת בינה מלאכותית שיצרה אותם. זו עליה של פי שלושה בתוך שנה בנפח התמונות הסינתטיות, תמונות שקשה הרבה יותר לזהות שהן מזויפות. 

מההתבטאויות של מייסדי OpenAI ניכר שהם מבינים את הצורך ברגולציה על הטכנולוגיה שיצרו. כך, אלטמן טען שיש צורך להקים גוף בינלאומי חזק שיפקח עליהן, כפי שכבר קורה עם הסוכנות הבינלאומית לאנרגיה אטומית. ההשוואה בין הבינה המלאכותית לגרעין אולי רומזת לפוטנציאל ההרס שהיזמים מבינים שיצרו; אבל נראה שהם מסירים מעליהם את האחריות ומחכים שההגבלות יגיעו מגורמים חיצוניים – סוכנות בינלאומית או ממשלות. 

במילים אחרות, היזמים עוד לא הבינו שעם כוח גדול מגיעה גם אחריות גדולה. הם לא יכולים להשאיר את האחריות רק לממשלות ולרגולטורים שתמיד יהיו איטיים יותר מהשוק ולא יצליחו להדביק את ההתקדמות הטכנולוגית ואת האתגרים העולים מהשטח.

נו מילא. לפחות לחברות הביג דאטה יש היום יותר כלים לזהות ולהתמודד עם זיופים, לא? אז זהו. 

כותרת ב-CNBC מלפני קצת פחות משבועיים מספרת על הכיוון שאליו אנחנו הולכים: מתברר שנפגעים משמעותיים בגל הפיטורים בחודשים האחרונים בחברות הביג טק, היו דווקא הצוותים שעוסקים בדיסאינפורמציה ברשת ובהסתה. כלומר בדיוק אלה שאחראים לזהות זיופים ולנקות את השיח באותן פלטפורמות שמנהלות רשתות חברתיות עם מיליארדי משתמשים ושיצרו ערוצי הפצת תוכן חסרי תקדים ונטולי פיקוח.

דו״ח עצמאי שהזמינה פייסבוק לאחר "שומר החומות" גילה כבר אז, שהסיבה לפריחתם של תכנים אלימים ומסיתים ברשת החברתית בזמן המבצע, הייתה היעדר יכולות טובות מספיק בעברית ובערבית ומחסור בכוח אדם מיומן שיסנן תכנים כאלה. 

כעת, המצב עלול להידרדר עוד יותר.
לפי הכתבה ב-CNBC, במסגרת הקיצוצים וההתייעלות סגרה פייסבוק פרויקט גדול בתחום של בדיקת עובדות שהיה אמור לסייע לגופים חיצוניים להוסיף הערות על גבי תכנים שנויים במחלוקת או חשודים. בטוויטר, עם כניסתו של אילון מאסק לבעלות על החברה, הצוותים שעוסקים בתחום הצטמצמו.

 

בנייר שפרסמתי לפני ארבע שנים ב-INSS (כחלק מתוכנית מחקר שלצערי נסגרה מאז), מיפיתי טכנולוגיות שנועדו לזהות ולהתמודד עם דיסאינפורמציה. השורה התחתונה הייתה ברורה: למרות שיש צורך ציבורי ברור במציאת פתרונות שקשורים להפצת מידע שקרי – קיים כשל שוק, כי אין גורמים שמוכנים או יכולים לשלם עבור פתרונות כאלה. יש טעם לערוך בדיקה מחודשת של אותה עבודה, אבל בינתיים לא השתכנעתי שהמצב השתנה משמעותית. הפיטורים בצוותי ה-trust and safety בחברות הביג-טק רק מחדדים את זה שלמרות שהן חלק גדול מהבעיה, הן מקצצות בפתרון שלה.

אז בינתיים, כל עוד אין מי שיעשה את זה במקומנו, אם נתקלתןם במידע חשוד ברשת:
1. עיצרו, הטילו ספק
2. עירכו בדיקת עובדות
3. אם מדובר בפייק ניוז- אל תפיצו 

והנה בונוס נחמד:

במסגרת תוכנית ליפקין-שחק ל״דמוקרטיה וביטחון לאומי בעידן של פוסט אמת ופייק ניוז״ שפעלה במכון למחקרי ביטחון לאומי (INSS), פיתחנו משחק שהמטרה שלו לראות עד כמה אנחנו מסוגלים להבחין בעצמנו בין פרצופים אמיתיים לבין פרצופים שנוצרו בידי בינה מלאכותית. 

חושבים שאין סיכוי שתתבלבלו? מוזמנים לנסות:
https://fakenews.inss.org.il/
*שתי אזהרות: 1. גם מי מאוד בטוח עצמו בדרך כלל נופל בזה, 2. היכולת "לעבוד עלינו" רק הלכה והשתפרה מאז שהוצאנו את זה.
בהצלחה לכולנו
אה, ואם למישהו יוצא לדבר עם אלטמן או סוצקבר או מישהו אחר ב-OpenAI – בבקשה תעבירו אליהם את השאלה שלי 🙂

ענבל אורפז היא יועצת חדשנות אסטרטגית וחוקרת אורחת במכון למחקרי ביטחון לאומי

    LinkedInEmailWhatsAppTwitterFacebook