כיצד נקיטת גישה מודעת לבינה מלאכותית מצמצמת מערכי נתונים מוטים

מערכי נתונים מוטים ובינה מלאכותית אתית

פתרונות המופעלים על ידי בינה מלאכותית צריכים מערכי נתונים כדי להיות יעילים. ויצירת מערכי הנתונים הללו טומנת בחובה בעיית הטיה מרומזת ברמה שיטתית. כל האנשים סובלים מהטיות (הן מודעת והן לא מודעת). ההטיות יכולות ללבוש כל מספר צורות: גיאוגרפית, לשונית, סוציו-אקונומית, סקסיסטית וגזענית. וההטיות השיטתיות הללו נרקמות לנתונים, מה שעלול לגרום למוצרי בינה מלאכותית שמנציחים ומגדילים את ההטיה. ארגונים זקוקים לגישה מודעת כדי להפחית את ההטיה המתגנבת אל מערכי הנתונים.

דוגמאות הממחישות את בעיית ההטיה

אחת הדוגמאות הבולטות להטיית מערך הנתונים הזו שזכתה לעיתונות שלילית רבה באותה תקופה הייתה פתרון לקריאת קורות חיים שהעדיף מועמדים גברים על פני נשים. הסיבה לכך היא מערכי הנתונים של כלי הגיוס פותחו באמצעות קורות חיים מהעשור האחרון כאשר רוב המועמדים היו גברים. הנתונים היו מוטים והתוצאות שיקפו את ההטיה הזו. 

דוגמה נוספת שדווחה בהרחבה: בכנס המפתחים השנתי של Google I/O, גוגל שיתפה תצוגה מקדימה של כלי סיוע לדרמטולוגיה המופעל על ידי AI, שעוזר לאנשים להבין מה קורה עם בעיות הקשורות לעור, לשיער ולציפורניים שלהם. העוזר לרפואת עור מדגיש כיצד AI מתפתח כדי לסייע בטיפול בבריאות - אבל הוא גם הדגיש את הפוטנציאל להטיה לזחול לבינה מלאכותית בעקבות הביקורת על כך שהכלי אינו מתאים לאנשים צבעוניים.

כאשר גוגל הכריזה על הכלי, החברה ציינה:

כדי לוודא שאנחנו בונים לכולם, המודל שלנו מתייחס לגורמים כמו גיל, מין, גזע וסוגי עור - מעור חיוור שאינו משתזף ועד עור חום שנשרף לעיתים רחוקות.

גוגל, שימוש בבינה מלאכותית כדי לעזור למצוא תשובות לבעיות עור נפוצות

אבל במאמר ב-Vice נאמר שגוגל לא הצליחה להשתמש במערך נתונים כולל:

כדי לבצע את המשימה, החוקרים השתמשו במערך אימון של 64,837 תמונות של 12,399 מטופלים הממוקמים בשתי מדינות. אבל מתוך אלפי מצבי העור המצולמים, רק 3.5 אחוזים הגיעו מחולים עם סוגי עור Fitzpatrick V ו-VI - אלה המייצגים עור חום ועור חום כהה או שחור, בהתאמה. 90 אחוז מהמאגר הורכב מאנשים עם עור בהיר, עור לבן כהה יותר או עור חום בהיר, על פי המחקר. כתוצאה מהדגימה המוטה, רופאי עור אומרים שהאפליקציה עלולה בסופו של דבר לאבחן יתר או תת-אבחון של אנשים שאינם לבנים.

סגן, אפליקציית העור החדשה של גוגל לא תוכננה עבור אנשים עם עור כהה יותר

גוגל הגיבה ואמרה שהיא תשכלל את הכלי לפני שתשחרר אותו רשמית:

כלי הסיוע לרפואת עור המופעל על ידי בינה מלאכותית שלנו הוא השיא של יותר משלוש שנות מחקר. מאז שהעבודה שלנו הוצגה ב-Nature Medicine, המשכנו לפתח ולשכלל את הטכנולוגיה שלנו עם שילוב של מערכי נתונים נוספים הכוללים נתונים שנתרמו על ידי אלפי אנשים, ומיליוני תמונות נוספות של דאגות עור שנאספו.

גוגל, שימוש בבינה מלאכותית כדי לעזור למצוא תשובות לבעיות עור נפוצות

ככל שאנו יכולים לקוות שתוכניות בינה מלאכותית ולמידת מכונה יוכלו לתקן את ההטיות הללו, המציאות נותרה בעינה: הן רק חכם שכן מערכי הנתונים שלהם נקיים. בעדכון לאמירת התכנות הישנה זבל פנימה/זבל החוצה, פתרונות AI חזקים רק כמו איכות מערכי הנתונים שלהם מההתחלה. ללא תיקון מתכנתים, למערכות הנתונים הללו אין ניסיון ברקע לתקן את עצמן - מכיוון שפשוט אין להן מסגרת התייחסות אחרת.

בניית מערכי נתונים באחריות היא הליבה של הכל בינה מלאכותית אתית. ואנשים הם בליבת הפתרון. 

בינה מלאכותית קשובה היא בינה מלאכותית אתית

הטיה לא מתרחשת בחלל ריק. מערכי נתונים לא אתיים או מוטים מגיעים מנקיטת גישה שגויה בשלב הפיתוח. הדרך להילחם בטעויות הטיה היא לאמץ גישה אחראית, ממוקדת בבני אדם, שרבים בתעשייה מכנים אותה Mindful AI. ל- Mindful AI שלושה מרכיבים קריטיים:

1. בינה מלאכותית קשובה ממוקדת באדם

מתחילת פרויקט הבינה המלאכותית, בשלבי התכנון, צרכי האנשים חייבים להיות במרכז כל החלטה. וזה אומר שכל האנשים - לא רק תת-קבוצה. זו הסיבה שמפתחים צריכים להסתמך על צוות מגוון של אנשים מבוססי עולמי כדי להכשיר יישומי בינה מלאכותית להיות מכילים וללא הטיות.

מיקור המונים של מערכי הנתונים מצוות גלובלי ומגוון מבטיח שהטיות מזוהות ומסוננות מוקדם. אנשים ממוצא אתני, קבוצות גיל, מגדרים, רמות השכלה, רקע סוציו-אקונומי ומיקומים שונים יכולים לזהות ביתר קלות מערכי נתונים המעדיפים סט ערכים אחד על פני אחר, ובכך לנשל הטיה לא מכוונת.

תסתכל על יישומי קול. כאשר מיישמים גישת AI קשובה וממנפים את הכוח של מאגר כשרונות עולמי, מפתחים יכולים להסביר אלמנטים לשוניים כגון דיאלקטים והדגשים שונים במערכי הנתונים.

הקמת מסגרת עיצובית ממוקדת באדם מההתחלה היא קריטית. זה עושה דרך ארוכה כדי להבטיח שהנתונים שנוצרו, אוצרים ומתויגים עומדים בציפיות של משתמשי הקצה. אבל חשוב גם להשאיר את בני האדם מעודכנים לאורך כל מחזור החיים של פיתוח המוצר. 

בני אדם בלולאה יכולים גם לעזור למכונות ליצור חווית AI טובה יותר עבור כל קהל ספציפי. ב-Pactera EDGE, צוותי פרויקט נתוני הבינה המלאכותית שלנו, הממוקמים ברחבי העולם, מבינים כיצד תרבויות והקשרים שונים יכולים להשפיע על איסוף ואצירת נתוני אימון בינה מלאכותית אמינים. יש להם את הכלים הדרושים להם כדי לסמן בעיות, לנטר אותן ולתקן אותן לפני שפתרון מבוסס AI עולה לאוויר.

AI Human-in-the-loop הוא פרויקט "רשת ביטחון" המשלבת את החוזקות של אנשים - ואת הרקע המגוון שלהם עם כוח המחשוב המהיר של מכונות. שיתוף הפעולה האנושי וה-AI הזה צריך להתבסס מתחילת התוכניות כדי שמידע מוטה לא יהווה בסיס בפרויקט. 

2. בינה מלאכותית מודעת היא אחראית

אחריות היא להבטיח שמערכות בינה מלאכותית יהיו נקיות מהטיות ושהן מבוססות על אתיקה. מדובר בתשומת לב לאיך, למה והיכן נוצרים נתונים, איך הם מסונתזים על ידי מערכות בינה מלאכותית, וכיצד משתמשים בהם בקבלת החלטה, החלטות שיכולות להיות להן השלכות אתיות. אחת הדרכים של עסק לעשות זאת היא לעבוד עם קהילות שאינן מיוצגות כדי להיות מכילים יותר ופחות מוטים. בתחום של הערות נתונים, מחקר חדש מדגיש כיצד מודל ריבוי משימות מרובה-מערערים המתייחס לתוויות של כל מעריך כתת-מטלה נפרדת יכול לסייע בהפחתת בעיות פוטנציאליות הגלומות בשיטות אמת קרקע טיפוסיות שבהן חילוקי דעות של המערים עשויים לנבוע מחסר ייצוג ו יכול להתעלם בצבירה של ביאורים לאמת יסוד אחת. 

3. אמין

אמינות נובעת מכך שעסק הוא שקוף וניתן להסבר כיצד מודל הבינה המלאכותית מאומן, כיצד הוא עובד ומדוע הוא ממליץ על התוצאות. עסק זקוק למומחיות עם לוקליזציה של בינה מלאכותית כדי לאפשר ללקוחותיו להפוך את יישומי הבינה המלאכותית שלהם ליותר כוללים ומותאמים אישית, תוך מתן כבוד לניואנסים קריטיים בשפה המקומית ובחוויות משתמש שיכולים להפוך או לשבור את האמינות של פתרון בינה מלאכותית ממדינה אחת לאחרת . לדוגמה, עסק צריך לעצב את היישומים שלו להקשרים מותאמים אישית ומקומיים, כולל שפות, דיאלקטים והדגשים ביישומים מבוססי קול. כך, אפליקציה מביאה את אותה רמה של תחכום חווית קול לכל שפה, מאנגלית ועד לשפות שאינן מיוצגות.

הגינות וגיוון

בסופו של דבר, AI קשוב מבטיח שהפתרונות בנויים על מערכי נתונים הוגנים ומגוונים שבהם ההשלכות וההשפעה של תוצאות מסוימות מנוטרות ומוערכות לפני שהפתרון יוצא לשוק. על ידי תשומת לב ושילוב של בני אדם בכל חלק בפיתוח הפתרון, אנו עוזרים להבטיח שמודלים של AI יישארו נקיים, מוטים מינימליים ואתיים ככל האפשר.

מה אתה חושב?

אתר זה משתמש Akismet כדי להפחית דואר זבל. למד כיצד הנתונים שלך מעובדים.