דוח של האיחוד האירופי מציין 11 דרכים בהן בינה מלאכותית מסכנת את החברה

בינה מלאכותית (AI) עלולה להיות סיכון לרקמה החברתית, על פי מסמך עמדה חדש של הוועדה הכלכלית והחברתית האירופית (EESC).

ארגון העובדים של ה-EESC, הכולל נציגים מארגוני עובדים לאומיים, סימן 11 אפיקים בהם הבינה המלאכותית עלולה להזיק לחברה האנושית – מעבודה ועד רווחה.

הקבוצה סבור כי תחום ה-AI, שמתייחס לטכנולוגיות רחבות ובכלל זה צ’ט בוטים שמנהלים איתכם שיחה במסנג’ר ועד לרובוטים אוטונומיים שעשויים להחליף אתכם בעתיד בעבודה, חייב להיות מפוקח תחת רגולציה של האיחוד האירופי כדי לוודא כי תועיל לחברה ולרווחה האנושית.

“אנחנו זקוקים לגישה אנושית שמכוונת את ה-AI, כאשר מכונות יישארו מכונות ואנשים ימשיכו לשלוט עליהן כל הזמן”, מסרה דוברת הקבוצה, קתרין מולר.

“עלינו להחליט אילו עבודות יבוצעו, אילו החלטות רפואיות יבוצעו על ידי ה-AI, ואם אנחנו מסכימים לכך שהבינה המלאכותית תסכן את ביטחוננו, פרטיותנו והאוטונומיה שלנו”, היא מסרה.

שוק הבינה המלאכותית מגלגל כ-664 מיליון דולר ובאיחוד האירופי מצפים כי פלח השוק יגדל ל-38.8 מיליארד דולר עד 2025.

ב-EESC סבורים כי חשוב לקבוע עקרונות וכללים לרגולציה של השוק, כולל קוד אתי ותקנות שנועדו להגן על עבודות המאוישות על ידי בני אדם.

ראו גם: ה-AI של גוגל כבר יודע ליצור בינה מלאכותית משל עצמו

אז מהם 11 התחומים שנתונים בסיכון מצד הבינה המלאכותית?

אתיקה – על פי הוועדהה, בינה מלאכותית יחד עם לימוד מכונה עלולים להשפיע על ערכים וזכויות אנושיות בסיסיות. בכלל זה, המשמעות של להיות אנושי. הטיה זו מושפעת מהעובדה כי רוב הבינה המלאכותית מתוכנתת על ידי גברים לבנים צעירים שאינם מייצגים את כלל האינטרסים של הציבור.

אבטחה – במקום שמבוסס על 100% טכנולוגיה, יש 100% סיכוי שמשהו ישתבש בשלב מסוים. וזאת מבלי לציין את הסכנה מפני האקרים שפורצים למערכות וגונבים מידע אישי. במובן זה כולנו שפני ניסוי של AI. למשל, ההחלטה שמכונית אוטונומית עשויה לקבל בשבריר שנייה – להרוג אנשים כדי להציל אחרים בתאונה.

פרטיות – AI כבר משולב בגאדג’טים ביתיים כמו אלקסה, אפליקציות בריאות וסמרטפונים. העובדה שאנחנו מאפשרים לחברות ענק ללקט מידע אודותינו, החשיפה התמידית לכורי מידע, מניחי קוקיז ושאר מלקטי נתונים שצוברים מידע אודותינו משנים דרמטית את יחסי הכוחות לרעת האזרחים. עסקים משתמשים בנתונים האלה כדי להשפיע על החלטות הקנייה שלנו או למכור את המידע שאספו בעצמם למטרות רווח.

שקיפות ומחויבות למתן דין וחשבון – מאחר ו-AI כבר משפיע על חיים של אנשים ומקבל החלטות בנושאים של הענקת משכנתא, הלוואות ומחירי ביטוח, הוועדה מציינת כי תהליך קבלת ההחלטות של הבינה המלאכותית חייב להיות שקוף. כלומר, אנשים צריכים לדעת על סמך מה התקבלה החלטה בעניינם.

עבודה – כפי שקרה במהפכה התעשייתית, קידמה טכנולוגית תוביל בהכרח לאובדן מקומות עבודה. הוועדה מציינת כי בניגוד לסברה מקובלת, מכונות לא מבצעות רק משימות פיזיות אלא קוגניטיביות, ועל כן בינה מלאכותית תשפיע על עתידם המקצועית של עובדים בעלי כישורים מתקדמים ולא רק על עובדים שלהם כישורים בסיסיים. ביל גייטס סבור כי הרובוטים שיקחו לכם את מקומות העבודה צריכים לשלם מסים.

חינוך וכישורים – בסביבת עבודה שמשתנה מהר, אנשים שיקנו לעצמם מיומנויות קוד ותכנות ייהנו מיתרון. אך למרות הניסיון של חלק מגופי הלימוד להתאים עצמם למציאות המשתנה, לא כל העובדים יצליחו להתאים את עצמם לעידן הדיגיטלי. דורות שלמים של אנשים יהפכו מובטלים מאונס ויש לחשוב על עתידם, קבעה הוועדה.

חוסר שיוויון והדרה – הוועדה מודאגת מכך שרוב הפיתוחים בתחום הבינה המלאכותית מרוכזים בידיים של חמש חברות גדולות – אמזון, גוגל, פייסבוק, אפל ומיקרוסופט. הן עלולות שלא לספק גישה שיוויונית לטכנולוגיות שלהן, או להציב עבורן תג מחיר שידיר מהן חלק מהאוכלוסיה שידה אינה משגת.

חוקים ורגולציה – מה הזכויות של AI? האם הבינה המלאכותית צריכה להיות אוטונומית לחלוטין בהחלטות שהיא מקבלת? האם היצרניות צריכות לקחת אחריות על ההחלטות שיקבלו תוכנות הבינה המלאכותית שלהן? ה-EESC מתנגד למתן מעמד חוקי לרובוטים, מחשש להשלכות שליליות על המוסר האנושי.

ממשל ודמוקרטיה – ה-AI עשוי לקדם מעורבות ציבורית של אזרחים אך קיים חשש מקביל כי היא תשפיע על הצבעה בבחירות. בוועדה מודאגים מפני “אפקט בועה” או “פייק ניוז” שיתפשטו ברשתות החברתיות וישפיעו באופן אנטי דמוקרטי על עתיד החברה. (דרך אתר EESC)

מנוי
הודע ל
guest

0 תגובות
Inline Feedbacks
הצג את כל התגובות
Forgot your password?

Note: Your password will be generated automatically and sent to your email address.

Forgot Your Password?

Enter your email address and we'll send you a link you can use to pick a new password.

דילוג לתוכן