אסדרה אירופית של מערכות מבוססות בינה מלאכותית

בשנים האחרונות אנו עדים לעלייה ניכרת בשימוש במערכות מבוססות בינה מלאכותית (Artificial Intelligence  או AI). זאת, בין היתר, תודות לזמינות נתוני עתק (Big Data) והתקדמות טכנולוגית בכל הקשור ליכולות הניתוח והסקת מסקנות על בסיס הנתונים הללו.[1]

מערכות מבוססות בינה מלאכותית צפויות לשנות את חיינו ללא הכר בשנים הקרובות. כבר עתה פעולות רבות אשר הצריכו בעבר שימוש והפעלת שיקול דעת אנושי מתבצעות היום באמצעות או בסיוע טכנולוגיות בינה מלאכותית. טכנולוגיות אלו משולבות במגוון רחב של תחומים, החל מניווט ותחבורה[2] המשך בגיוס והשמת עובדים,[3] וכלה במערכות ענישה,[4] ועוד.[5] לצד היתרונות הרבים שלהן, השימוש במערכות מבוססות בינה מלאכותית טומן בחובו גם מספר אתגרים.

בשבוע שעבר פרסם האיחוד האירופי מסמך העתיד לשמש בסיס לרגולציה של מערכות מבוססות בינה מלאכותית (AI).[6] בעבר נעשו מהלכים וניסיונות להסדיר סוגיות הנוגעות לשימוש בבינה מלאכותית, אולם, זהו הניסיון הראשון מסוגו ליצור מערכת כללים מקיפה אשר תסדיר את ההיבטים השונים של השימוש בבינה מלאכותית.

מערכת הכללים המוצעת מעוררת עניין רב ברחבי העולם. היא מנסה להתמודד עם האתגרים שמעמידות מערכות בינה מלאכותית באמצעות הבחנה בין מערכות שונות על בסיס הסיכון שהן מהוות לאנשים. בקצהו האחד של הספקטרום מערכות מבוססות בינה מלאכותית היוצרות סיכון נמוך, כדוגמת מערכות שנועדו לסייע במאבק בשינויי האקלים או ייעול תשתיות. בקצהו השני של הספקטרום תעמודנה מערכות מבוססות בינה מלאכותית היוצרות "סיכון בלתי מתקבל על הדעת". מערכות בעלות סיכון בלתי מתקבל על הדעת הן מערכות בעלות שימושים מזיקים הנוגדים את ערכי האיחוד האירופי, כדוגמת, מערכות המפעילות מניפולציה שמטרתה לגרום לאנשים לפעול באופן העלול להזיק להם. או מערכות דירוג אשראי חברתי המופעלות על ידי הממשלה (social scoring). בעוד מערכות בעלות סיכון לא תידרשנה לעמוד במנגנוני בקרה מחמירים, שימוש במערכות בעלות סיכון בלתי מתקבל על הדעת ייאסר (בכפוף לרשימת חריגים צרה). 

בתווך שבין מערכות בעלות סיכון נמוך ואלו היוצרות סיכון בלתי מתקבל על הדעת נמצאות מערכות בסיכון גבוה או סיכון מוגבל. מערכות בסיכון גבוה הן מערכות אשר יש ביכולתן להשפיע באופן שלילי על בטיחותם של אנשים או זכויותיהם הבסיסיות. מערכות מסוג זה קשורות למשל למתן אשראי, גיוס עובדים ומניעת פשיעה. גוף המבקש לעשות שימוש במערכות המהוות סיכון גבוה, יחוייב לעמוד בדרישות נוקשות כדוגמת: ביצוע הערכת סיכונים, הבטחת איכות, ביטחון, שקיפות ופיקוח אנושי. מעבר לכך, הרגולציה דורשת רישום של המערכות הללו במאגר שיהיה זמין לציבור. הערכת הסיכון למערכות אלו תעשה עוד בטרם כניסתן לשימוש, כולל וידוא שבני האדם שמפקחים עליהן מבינים איך הן פועלות, ושהן מאומנות באמצעות מאגרי מידע באיכות גבוהה. בכך מנסה האיחוד האירופי להגביר את השקיפות ולהבטיח שמערכות הבינה המלאכותית לא תמשכנה לפעול במסגרת מה שמכונה "קופסה שחורה".[7]

מן הטיוטה עולה, כי מערכת הכללים המוצעת תחול הן על המגזר הציבורי והן על המגזר הפרטי, בין אם הטכנולוגיה פותחה או יובאה לאחת מן המדינות החברות, זאת כל עוד היא מופעלת בתחומי האיחוד או משפיעה על אזרחי ותושבי האיחוד, בדומה לרגולציות אחרות של האיחוד, כדוגמת ה- GDPR. גופים שיפרו את הכללים לעניין זה עלולים למצוא עצמם נקנסים.

מערכת הכללים המוצעת אינה חפה מקשיים וביקורת. יחד עם זאת, ניתן להניח כי מרגע שתאומץ – בנוסח זה או אחר – היא תשפיע על גופים הפועלים במדינות רבות, לרבות מדינת ישראל. משכך, על הרגולטור הישראלי, לתת דעתו לנושא ולפעול לשם אסדרת תחום הבינה המלאכותית.

לטיוטה שפורסמה על ידי האיחוד האירופי ראו כאן [https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-down-harmonised-rules-artificial-intelligence-artificial-intelligence]


[1]  Margarete Biallas and Felicity O'Neill, Artificial Intelligence Innovation in Financial Services, E,Compass (Jun. 2020) https://www.ifc.org/wps/wcm/connect/448601b9-e2bc-4569-8d48-6527c29165e8/EMCompass-Note-85-AI-Innovation-in-Financial-Services.pdf?MOD=AJPERES&CVID=nfuDUlG.

[2]  Miguel Carrasco et al., The Citizen’s Perspective on the Use of AI in Government, Bos. Consulting Group (Mar. 1, 2019), https://www.bcg.com/en-il/publications/2019/citizen-perspective-use-artificial-intelligence-government-digital-benchmarking.aspx; Red Ninja’s Smart Tech Clears the Road for Ambulance Crews, Innovate UK (Aug. 7, 2017), https://www.gov.uk/government/case-studies/red-ninjas-smart-tech-clears-the-road-for-ambulance-crews.

[3]  Hilke Schellmann & Jason Bellini, Artificial Intelligence: The Robots Are Hiring, Wall ST. J. (Sept. 20, 2018), https://www.wsj.com/articles/artificial-intelligence-the-robots-are-now-hiring-moving-upstream-1537435820.

[4] State v. Loomis, 881 N.W.2d 749, 753–54 (Wis. 2016); Karl Manheim & Lyric Kaplan, Artificial Intelligence: Risks to Privacy and Democracy, 21 Yale J.L. & Tech. 106, 155–56 (2019).

[5] Mike Isaac, How Uber Deceives the Authorities Worldwide, N.Y. Times (Mar. 3, 2017), https://www.nytimes.com/2017/03/03/technology/uber-greyball-program-evade-authorities.html; Artificial Intelligence Applications for Lending and Loan Management, Emerj (May 19, 2019), https://emerj.com/ai-sector-overviews/artificial-intelligence-applications-lending-loan-management; Aaron Rieke et al., Public Scrutiny of Automated Decisions: Early Lessons and Emerging Methods: An Upturn and Omidyar Network Report, Omidyar Network 7 (Feb. 27, 2018), https://omidyar.com/wp-content/uploads/2020/09/Public-Scrutiny-of-Automated-Decisions.pdf; Margaret Hu, Algorithmic Jim Crow, 86 Fordham L. Rev. 633, 641 (2017).

[6] https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-down-harmonised-rules-artificial-intelligence-artificial-intelligence.

[7]  Nicholas Diakopoulos, Algorithmic Accountability: On the Investigation of Black Boxes, Tow Ctr. for Dig. Journalism (Dec. 3, 2013), https://www.cjr.org/tow_center_reports/algorithmic_accountability_on_the_investigation_of_black_boxes.php.

שתפו את הכתבה:

מאת

error

אהבתם את הפוסט? הרשמו לעדכונים וקבלו את הפוסט הבא, ישר למייל שלכם