בינה מלאכותית פועלת בזמן הרגולציה מאטה

מסימיליאנו D'Elia

שנה לאחר תחילת המהפכה הטכנולוגית, הקשורים להזדמנויות החדשות שמציעות יישומי המערכות שנחקרו, באמצעות אלגוריתמי בינה מלאכותית (AI), מודגשות חששות אתיים ואבטחה, לרבות סיכונים כגון דיסאינפורמציה ואובדן שליטה על הטכנולוגיה. הפרידה בעקבותיו שמועות והסרות כפויות בתוך OpenAI, חברה מובילה בתחום הבינה המלאכותית, בין המרכיבים הפילנתרופיים והמסחריים, היא תוצאה ישירה של המהפכה הזו שמשפיעה על אזרחים רגילים, חברות גדולות אך גם על המדינות המנסות להימנע משימוש זדוני בבינה מלאכותית על ידי קבוצות טרור. פושעי רשת.

מייסד החברה הראשונה במגזר, Open AI, סם אלטמן, בתחילה ממוקד מטרה ללא רווח, העביר את תשומת הלב לכיוון עסקים בשל הזדמנויות שוק חדשות יוצאות דופן. הצלחת הפלטפורמה הראשונה ChatGPT הוא העצים, למעשה, את הסתירות של מבנה, שלמרות המטרה הראשונית הייתה להימנע מקפיטליזם לא מפוקח, מצא את עצמו שולט במציאות המחויבת למקסום רווח.

OpenAI, הארגון הראשון שהציע מודל AI חדשני, בשם ChatGPT, נאלץ אפוא להתמודד עם מאבק פנימי עקוב מדם בתוך הדירקטוריון, המורכב הן מחברי המרכיב הפילנתרופי והן מחברי המרכיב העסקי-מסחרי. . סתירות וחזונות שונים לגבי אתיקה ורווח צצו בתוקף. במיוחד, אלטמן, למרות שיש לו חששות אתיים, העביר בהדרגה את האיזון לכיוון עסקים, מזהה את הזדמנויות השוק יוצאות הדופן שמציעה בינה מלאכותית.

המאבק הפנימי האחרון ב-OpenAI מתואר כקרב הראשון להגדרת עתיד הבינה המלאכותית, שבו המרכיב המסחרי והעסקי עסקים היא הוציאה מגדרה את אלה האסוציאטיביים והלא למטרות רווח.

עם זאת, עלינו להתמודד כעת עם האתגרים המיידיים, כמו הסיכון של דיסאינפורמציה בבחירות 2024, והסכנה של תרחישים אפוקליפטיים. תנאים קיצוניים שבהם המכונה (המצויידת במודיעין-על) עלולה לגבור על החלטות אנושיות, מה שמגביר את תפיסת ה-terminator, שהועלתה שוב ושוב על ידי מי שנותרו סקפטיים לנוכח הטכנולוגיה הלא נחקרה הזו, שעליה, על פי הדעה המשותפת, יש להטיל בלמים רגולטוריים אוניברסליים. להימנע ממצבים בלתי צפויים ללא דרך חזרה.

למרות מאמצי שיתוף הפעולה בין חברות וממשלות, אנו הולכים לקראת מועדי הבחירות החשובים הבאים (ארה"ב, האיחוד האירופי וטייוואן) ללא הגנות נאותות. באירופה, למשל, עדיין יש ויכוח על חוק הבינה המלאכותית, מסמך שאמור להסדיר את הפיתוח והשימוש בפלטפורמות המנצלות מודלים של בינה מלאכותית. בין בעיות הקשורות לפרטיות האזרחים ושימוש חסר הבחנה בזיהוי פנים, הדרך במעלה הגבעה, בתקופה שבה מתבסס סדר עולמי חדש בעקבות הסכסוך העז בין מעצמות מסורתיות למעצמות מתעוררות.

אנחנו מנסים להסדיר

האיחוד האירופי. האיחוד האירופי התחייב להפוך לשחקן מפתח ברגולציה של בינה מלאכותית (AI) באמצעות "חוק AI". הטרילוג הבא, המתוכנן ל-6 בדצמבר 2023, יהיה מכריע כדי לקבוע את האפשרות לאשר את הטקסט עד סוף 2023. בהקשר של "תהליך בינה מלאכותית של הירושימה", מנהיגי G7 הכריזו על אחד עשר עקרונות מנחים וקוד התנהגות למפתחי בינה מלאכותית.

העקרונות המנחים שואפים לספק הדרכה למפתחים, לגופים אקדמיים ולמגזר הציבורי והפרטי המעורבים בפיתוח מערכות בינה מלאכותית מתקדמות. הם כוללים אמצעים להערכת סיכונים והפחתה, שקיפות ליכולות ומגבלות המערכות, וקידום מדיניות ממשל מבוססת סיכונים. קוד ההתנהגות מפרט הנחיות מעשיות למפתחי בינה מלאכותית, עם דגש מיוחד על שקיפות מודל, פרסום דוחות ושיתוף מידע בחברה האזרחית.

קוד ההתנהגות, החל על בסיס התנדבותי, הוא בעל חשיבות משמעותית מכיוון שהוא ישים באופן מיידי ויכול להתרחב ברחבי העולם. בניגוד לחוק הבינה המלאכותית, הקוד יכול להשפיע על הרגולציה של בינה מלאכותית בהקשר של הערכות תשומת לב גדלות ואחריות של חברות.

ארה"ב. הצו המנהלי של ארה"ב, שהוצא ב-30 באוקטובר 2023 על ידי הנשיא ג'ו ביידן, מתייחס לנושאים מכריעים הקשורים לשימוש בטוח בבינה מלאכותית (AI). היא כופה שקיפות על מפתחים, מחייבת שיתוף של תוצאות הבדיקה עם הממשלה והפקדת המכון הלאומי לתקנים וטכנולוגיה המשימה של הגדרת תקנים עבור דגמי AI בטוחים. יתר על כן, הוא מתמקד במניעת מידע מוטעה על ידי הקצאה ל מחלקת המסחר המדריך הטכני כדי להבטיח את האותנטיות של תוכן שנוצר על ידי AI.

הצו מתייחס גם לסוגיית הטיות קוגניטיביות, מנסה להימנע מאפליה במגזרים רגישים. נדרשת סקירה של הקריטריונים המשמשים במערכות AI כדי לזהות הטיות או פערים. כמו כן, צפוי מחקר מעמיק על השפעת הטכנולוגיות על תעסוקה ועיבוד התרגול הטוב ביותר כדי לצמצם את הנזק הפוטנציאלי ולמקסם את התועלת.

הסכם תלת לאומי. יתר על כן, קיים הסכם לא רשמי בין איטליה, צרפת וגרמניה מה-19 בנובמבר 2023 לגבי הרגולציה של מודלים בסיסיים ב-AI גנרטיבי. הסכם זה, השונה מהגישה מבוססת הסיכון של חוק הבינה המלאכותית, מציע רגולציה עצמית מחייבת באמצעות קודי התנהגות. מפתחי בינה מלאכותית נקראים לנסח "כרטיסי מודל" עם מידע על היכולות והמגבלות של הדגמים. גוף ממשל בינה מלאכותית יעקוב אחר יישום כללי ההתנהגות הללו. מכרעת היא הנקודה שאינה קובעת סנקציות על "ההפרה הראשונה", שמירת סנקציות רק על הפרות שיטתיות של כללי ההתנהגות. הסכם זה עשוי להשפיע על המשא ומתן על חוק הבינה המלאכותית בין מדינות חברות, ועלול לעכב את חקיקתו.

בינה מלאכותית פועלת בזמן הרגולציה מאטה

| דעות |