אנחנו חיים בתקופה יוצאת דופן. מצד אחד, בינה מלאכותית מציעה לנו יכולות שלא היו לאנושות מעולם. אנחנו יכולים לשאול שאלה ולקבל תשובה מיידית, לנתח מידע בהיקפים עצומים, לכתוב, ליצור, לחקור, לתכנן. מצד שני, יותר ויותר אנשים שואלים את עצמם את השאלה המתבקשת: מי בעצם שולט במידע שאנחנו מקבלים? מי מחליט מה נראה ומה לא נראה? והאם ייתכן שאנחנו מוותרים על החשיבה העצמאית שלנו מבלי לשים לב?
טום ביליו החליט להקדיש לנושא הזה בדיוק פרק שבא להזהיר את כולנו. לדבריו, בינה מלאכותית לא רק מנתחת מידע, אלא עלולה לשמש גם ככלי לשליטה בנרטיב הציבורי. זו טענה רצינית שמחייבת אותנו לעצור, לחשוב, לבדוק, ולא לבלוע הכל כמו שהוא.
בואו נבדוק יחד מה עומד מאחורי המושגים כמו שליטה בנרטיב, אלגוריתמים, הטיות קוגניטיביות, ואיך כל זה קשור לבינה מלאכותית, אלגוריתמים של רשתות חברתיות ושליטה במידע.
פרשת אפשטיין: כשבינה מלאכותית פוגשת נרטיב רגיש
אי אפשר להבין את הטיעון של טום ביליו בלי להתעמק בפרשת אפשטיין עצמה ובהקשר שבו היא עלתה. מדובר באחת הפרשות המתוקשרות והמורכבות ביותר בעשורים האחרונים. פורסמו לציבור מיליוני עמודים של מסמכים, מאות אלפי תמונות ואלפי קטעי וידאו, חומרי חקירה שהגיעו ממקורות רשמיים. מדובר בכמות מידע עצומה, כזו שאדם פרטי אינו מסוגל לעבור עליה לבדו בזמן סביר.
כאן בדיוק נכנסת לתמונה בינה מלאכותית. אם יש טכנולוגיה שמסוגלת לנתח כמויות מידע בהיקפים כאלה, לחלץ קשרים, לזהות רשתות חברתיות, לאתר דפוסים חוזרים ולהצליב עדויות, זו בינה מלאכותית. ולכן, לפי טום ביליו, הציפייה הייתה ברורה: לשאול מערכת כמו Gemini או מודל שפה אחר לסכם את החומר, למפות קשרים, להציג תמונה רחבה.
כאשר נשאל מודל מסוים לסכם את המסמכים או להתייחס אליהם, הוא סירב להשיב או נתן תגובה שמסרבת לעסוק בנושא. זה היה הרגע שבו עלתה השאלה הגדולה. לא השאלה אם הפרשה עצמה אמיתית, אלא השאלה מי מחליט על מה מותר לדבר, ועד כמה עמוק מותר לנתח.
הפרשה עצמה חשפה רשת קשרים ענפה בין אנשי עסקים, פוליטיקאים, מובילי דעה ובכירים ממגזרים שונים. הוא אינו טוען שכל אחד מהם ביצע עבירה, אלא מדגיש את עצם הריכוז של כוח, השפעה וחיבורים סביב דמות אחת. כאן נכנס מושג חשוב במדעי החברה שנקרא "רשתות כוח". מדובר במבנה שבו מספר קטן יחסית של שחקנים מחוברים זה לזה בקשרים ישירים ועקיפים, ומחזיקים בעמדות השפעה משמעותיות.
אם נוסיף לכך את העובדה שחלק מאותם שחקנים קשורים גם לעולם הטכנולוגיה, ההשקעות והפלטפורמות הדיגיטליות, עולה שאלה מורכבת. כאשר אותם מוקדי כוח מחזיקים גם בצמתי מידע, וגם בקשרים חברתיים ופוליטיים, מי מפקח על מי.
טום ביליו משתמש במונח "חוק הברזל של האוליגרכיה". זהו רעיון תיאורטי שלפיו בכל מערכת חברתית מורכבת, גם אם היא מתחילה כשוויונית, בסופו של דבר נוצר גרעין מצומצם של מקבלי החלטות. כאשר הגרעין הזה מחזיק גם בטכנולוגיה שמתווכת את המציאות עבור מיליארדי אנשים, נוצרת בעייתיות, כי בני אדם לא נוטים להיות ניטרליים ונטולי אינטרסים אישיים.
פרשת אפשטיין, בהקשר הזה, משמשת דוגמה מוחשית למתח שבין שקיפות לבין שליטה בנרטיב. אם מערכות בינה מלאכותית הופכות לשער הראשי דרכו הציבור מבין אירועים מורכבים, אז מדיניות הסינון שלהן אינה עניין טכני בלבד. היא הופכת לשאלה דמוקרטית.
טום מדגיש נקודה נוספת שראוי להתייחס אליה ברצינות. הוא אינו טוען שכל תיאוריית קונספירציה נכונה. להפך. הוא מזכיר שלא כל תיאוריה יכולה להיות נכונה, ולעיתים רבות תיאוריות סותרות זו את זו. לדבריו, הסכנה אינה בהכרח בצנזורה גלויה, אלא בשכבות עדינות של סינון, דירוג, או הצגת מידע בהקשר מסוים.
וזה מחזיר אותנו לשאלה הגדולה. אם בעתיד נרצה להבין פרשה מורכבת, לחשוף קשרים, או לבדוק טענות רגישות, ונפנה קודם כל לצאט בוט, עד כמה נהיה מודעים למגבלותיו. האם נבקש מקורות ראשוניים. האם נשווה בין מודלים שונים. האם נבדוק מסמכים בעצמנו.
פרשת אפשטיין אינה רק סיפור פלילי או פוליטי. היא הפכה לנקודת מבחן של עידן חדש. עידן שבו בינה מלאכותית משמשת מתווך מרכזי בין הציבור לבין מידע מורכב. וכאשר מתווך כזה מסנן, ממיין או מגביל, גם אם מסיבות לגיטימיות, אנחנו חייבים להיות מודעים לכך.
שליטה בנרטיב: מה זה בכלל ואיך זה עובד בעולם הדיגיטלי?
המושג שליטה בנרטיב נשמע דרמטי, אבל למעשה הוא מתאר משהו מאוד בסיסי. בכל חברה אנושית קיימים מנגנונים שמעצבים את הסיפור הקולקטיבי. מי הגיבורים, מי האשמים, מה חשוב ומה שולי. בעבר אלו היו העיתונים, תחנות הרדיו, ספרי הלימוד. היום אלו האלגוריתמים.
כאשר אנחנו מדברים על שליטה בנרטיב בהקשר של בינה מלאכותית, אנחנו מתכוונים לשליטה במידע הזמין לנו. לא בהכרח דרך צנזורה בוטה, אלא דרך בחירה שקטה של מה להציג ומה להצניע. בעולם של עומס מידע אינסופי, עצם הבחירה אילו תוצאות חיפוש להציג ראשונות היא כבר צעד משמעותי.
תחשבו על היום יום שלנו. אנחנו מחפשים מידע בגוגל, צופים בפיד ברשת חברתית, מקבלים המלצות מי לעקוב אחריו. אנחנו לא רואים את כל מה שקיים. אנחנו רואים גרסה מסוננת. האלגוריתם בוחר עבורנו על בסיס פרמטרים כמו מעורבות, העדפות קודמות, זמן צפייה, ולפעמים גם שיקולים רחבים יותר של מדיניות תוכן.
במילים מקצועיות יותר, מדובר באוצרות אלגוריתמית. זהו תהליך שבו מערכות לומדות מנתחות את ההתנהגות שלנו ומבצעות דירוג תוצאות. דירוג תוצאות איננו ניטרלי לחלוטין. הוא מבוסס על מודלים מתמטיים, אבל המודלים הללו נבנים על ידי בני אדם ומושפעים ממדיניות ארגונית.
הנקודה המרכזית היא לא בהכרח שמישהו יושב בחדר אפל ומוחק מידע. לעיתים מספיק להוריד את החשיפה. להוסיף מעט חיכוך. להציג אזהרה. להוריד דירוג. עבור רוב האנשים זה מספיק כדי שהם פשוט ימשיכו הלאה.
בינה מלאכותית והטיות: למה האלגוריתם לא באמת אובייקטיבי?
אחת האשליות הנפוצות היא שבינה מלאכותית אובייקטיבית יותר מבני אדם. הרי היא מבוססת על מתמטיקה, על דאטה, על סטטיסטיקה. אבל כאן בדיוק נכנסת ההבנה החשובה של הטיות באימון מודלים.
מערכות של בינה מלאכותית, במיוחד מודלים שפתיים גדולים, מאומנות על כמויות עצומות של טקסטים אנושיים. מאמרים, ספרים, פורומים, רשתות חברתיות. כלומר, הן לומדות מתוך עולם רווי בדעות, אינטרסים והטיות. בנוסף, בשלב שנקרא Reinforcement Learning from Human Feedback, בני אדם מדרגים תשובות ומכוונים את המודל למה נחשב ראוי, מדויק או בטוח.
זה אומר בפשטות שהמודל לא לומד רק עובדות, אלא גם נורמות. הוא לומד מה מקובל לומר ומה פחות. הוא לומד מה עלול להיחשב רגיש. הוא לומד להימנע מאזורים שנחשבים בעייתיים.
בחיים היומיומיים זה דומה לחבר שתמיד מנסה להיות מנומס. אם נשאל אותו שאלה שנויה במחלוקת, הוא יעדיף לעיתים להתחמק או לתת תשובה זהירה במיוחד. זה לא בהכרח רוע. זה מנגנון הגנה. אבל כאשר מיליוני אנשים משתמשים באותו מנגנון, ההשפעה הופכת רחבה.
הטיות קוגניטיביות כמו confirmation bias ומוטיבציה רגשית משפיעות גם על בני אדם וגם על המערכות שהם בונים. אנחנו נוטים לחפש מידע שמאשר את מה שכבר חשבנו. האלגוריתם לומד מהקליקים שלנו, ואז מחזק את אותה נטייה. כך נוצר אפקט שנקרא פילטר בועה, שבו אנחנו מוקפים בעיקר בדעות דומות לשלנו.
האם זה אומר שמדובר בשליטה מוחית? לא בהכרח. אבל זה בהחלט אומר שהסביבה המידעית שלנו אינה ניטרלית לחלוטין.
כלכלת הקשב: למה תשומת הלב שלנו היא המטבע האמיתי?
כדי להבין את הקשר בין בינה מלאכותית לשליטה במידע, אנחנו חייבים להבין את המושג כלכלת הקשב. בעולם שבו יש עודף תוכן, המשאב הנדיר ביותר הוא הקשב שלנו. הזמן שאנחנו מבלים מול מסך, כמות האינטראקציות שלנו, משך השהייה בעמוד.
פלטפורמות דיגיטליות מודדות כל דבר. אילו פוסטים גרמו לנו לעצור. מה גרם לנו להגיב. אילו מילים מייצרות יותר מעורבות. באמצעות ניסויים מסוג A B Testing ניתן לשנות כותרת, תמונה או ניסוח ולבדוק מה משפיע יותר.
במילים אחרות, ההתנהגות שלנו נבחנת כל הזמן. לא מתוך רוע בהכרח, אלא מתוך אינטרס עסקי. אם המטרה היא להגדיל מעורבות, המערכת תעדיף תוכן שמעורר רגש חזק. לפעמים זה כעס, לפעמים פחד, לפעמים התלהבות.
כאן טמון הכוח. אם ניתן לכוון מעט את התוכן שמוצג לנו, ניתן להשפיע על הלך הרוח שלנו. מחקרים הראו ששינויים קלים בהרכב הפיד יכולים להשפיע על מצב רוח ועל אופן הביטוי שלנו. כאשר מדובר במיליוני משתמשים, גם שינוי קטן בהסתברות יכול לייצר השפעה גדולה.
זה מזכיר לנו משהו פשוט. אם כל היום נראה חדשות שליליות, נרגיש שהעולם קורס. אם נראה בעיקר סיפורי הצלחה, נרגיש שהכל ורוד. המציאות אולי מורכבת יותר, אבל החוויה שלנו נקבעת לפי מה שנחשפנו אליו.
ריכוז כוח וטכנולוגיה: מי מחזיק במפתחות?
אחד הרעיונות שטום ביליו הדגיש הוא ריכוז הכוח סביב צמתי מידע. כיום מספר מצומצם יחסית של חברות מחזיק בתשתיות הענן, במודלים המובילים, בפלטפורמות החיפוש וברשתות החברתיות. זהו ריכוז משמעותי של שליטה במידע.
במונחים של תורת מערכות, מדובר בנקודות חנק. אלו מקומות שבהם ניתן לווסת זרימת מידע. אם פלטפורמה מסוימת משנה מדיניות, ההשפעה מורגשת מיד אצל מיליונים.
חשוב להדגיש כאן נקודה קריטית. ריכוז כוח אינו בהכרח קונספירציה. הוא יכול להיות תוצאה של יתרון טכנולוגי, השקעות עתק ורגולציה. אבל מבחינה חברתית, ריכוז כזה מחייב שקיפות, בקרה ציבורית ודיון פתוח.
כאשר בינה מלאכותית הופכת לשער הכניסה הראשי שלנו למידע, השאלה מי מגדיר את גבולות השיח הופכת לשאלה מהותית. האם ניתן לבדוק את המודלים? האם קיימת שקיפות לגבי מדיניות סינון? האם קיימים מודלים בקוד פתוח שמאפשרים פיקוח רחב יותר?
בשנים האחרונות אנחנו רואים גם מגמה של קוד פתוח, שבה קהילות מפתחים בונות מודלים עצמאיים. זהו ניסיון לפזר כוח וליצור אלטרנטיבות. התמונה עדיין מתהווה, והאיזון בין חדשנות, בטיחות ושקיפות מורכב מאוד.
אחריות אישית בעידן של בינה מלאכותית
אחרי כל העומק הזה, חשוב שלא ניפול לקיצוניות. בינה מלאכותית היא כלי אדיר. היא משפרת רפואה, חינוך, מחקר, תעשייה. השאלה היא לא האם היא טובה או רעה, אלא איך אנחנו משתמשים בה ואיך אנחנו בוחנים את התוצרים שלה.
אחריות אישית מתחילה בספק בריא. כאשר אנחנו מקבלים תשובה ממערכת חכמה, לא להתייחס אליה כאל אורקל. לבקש מקורות. להשוות בין כמה מודלים. לבדוק מסמכים ראשוניים. לשאול מה ההנחות הסמויות בתשובה.
זה דומה לקריאה של כתבה בעיתון. אנחנו לא מסתפקים בכותרת. אנחנו בודקים מי כתב, באיזה הקשר, אילו נתונים הוצגו ואילו לא. אותו עיקרון נכון גם לגבי תשובות של בינה מלאכותית.
בנוסף, כדאי לטפח חשיבה עקרונית. מה הסיבה ומה התוצאה. אילו אינטרסים עשויים להיות מעורבים. מה אנחנו מרגישים מול המידע שקראנו, והאם הרגש הזה משפיע על הפרשנות שלנו.
בסופו של דבר, העצמאות המחשבתית שלנו תלויה בנו. לא באלגוריתם.
מה חשוב לזכור לפני שאנחנו לוחצים אנטר
• בינה מלאכותית אינה אובייקטיבית לחלוטין, אלא מאומנת על ידי בני אדם ומושפעת מהטיות אנושיות
• שליטה בנרטיב בעידן הדיגיטלי מתבצעת לרוב דרך דירוג, חשיפה וחיכוך, ולא בהכרח דרך מחיקה ישירה
• כלכלת הקשב הופכת את תשומת הלב שלנו למשאב יקר, ולכן פלטפורמות מנסות להשפיע על מה שנראה
• ריכוז כוח טכנולוגי מחייב שקיפות, פיקוח ודיון ציבורי פתוח
• אחריות אישית וביקורתיות הן הכלים החשובים ביותר שלנו בעידן של בינה מלאכותית ושליטה במידע
אם נזכור לשאול, לבדוק ולהשוות, נוכל ליהנות מהעוצמה האדירה של בינה מלאכותית בלי לוותר על החופש לחשוב בעצמנו.