گفت‌گوی ایبنا با یک پژوهشگر در زمینه هوش مصنوعی؛

به زندان اطلاعاتی خود گرفتار نشوید

آیا بحث‌های اخلاقی در زمینه هوش مصنوعی سودی دارد؟
 
تاریخ انتشار : يکشنبه ۲۳ دی ۱۳۹۷ ساعت ۱۰:۴۱
 
 
صفدری معتقد است؛ ماهیت هوش مصنوعی بسیار مفید است اما اگر انسان نداند که چگونه باید از آن بهره بگیرد در نهایت به زندان اطلاعاتی خود گیر می‌افتد.
 
ابوطالب صفدری، پژوهشگر اندیشکده مهاجر و دانشجوی دکتری فلسفه علم دانشگاه صنعتی شریف؛ در گفت‌گو با خبرنگار خبرگزاری کتاب ایران(ایبنا) درباره ماهیت هوش‌مصنوعی و ضرورت پرداختن به اخلاقیات وابسته به آن گفت: با توجه به اینکه حوزه مطالعاتی من وجوه فلسفی هوش مصنوعی است؛ ابتدا باید ببینیم که هوش مصنوعی چیست و در کل چه جنبه‌هایی از زندگی ما را به خود مشغول ساخته است؟
 
وی گفت: هوش مصنوعی با زندگی همه ما درگیر است از گوگل ترنسلیت تا شبکه‌های اجتماعی مانند اینستاگرام و غیره. تمام اپلیکیشن‌ها یا ابزارهایی که به واسطه هوش مصنوعی پیشرفته شده‌اند یک سری وجوه اخلاقی و فلسفی دارند که ما در طول این سال‌ها بسیار با آن مواجه شدیم و در آینده مواجهه بیشتری خواهیم داشت؛ در مسائل اخلاقی مثالی که می‌توان گفت این است که در فضای اینستاگرام شما یک پستی را می‌پسندید و در ادامه فضای این شبکه مجازی پیشنهادهایی را برای دنبال کردن صفحات مشابه آن به شما می‌دهد؛ اتفاقی که می‌افتد این است که به تدریج شما در یک حباب اطلاعاتی گرفتار شده‌‌اید.

 
صفدری افزود: برای مثال شما علاقه‌هایی دارید که آن‌ها را در شبکه‌ها مجازی دنبال می‌کنید. این فضاها به گونه‌ای طراحی شده است که شما را به صورت کاملا نامحسوس به گرداب اطلاعاتی می‌اندازد که خودتان آن‌ها را انتخاب کردید و دسترسی شما را به دیگر صفحات محدود می‌کند.
 
این پژوهشگر در ادامه گفت: گرفتار شدن در حباب اطلاعاتی باعث می‌شود کاربران فضا یا شبکه‌های مجازی که به تدریج و در طول زمان استفاده آن‌ها از این فضاها بیشتر می‌شود در زندانی از جهان خود بیفتند و انگار تمام جهانشان، علایقشان می‌شود و به جز انتخاب‌هایشان دیگر چیزی نبینند یا باخبر نشوند.
 
وی با اشاره به نتایج مخرب شرایط یاد شده خاطرنشان کرد: اتفاق هولناکی که می‌افتد این است که بعد از مدت زمانی فردی که فقط در دنیای اطلاعاتی خود قرار دارد از یک چیزی مانند تئاتر یا پیشرفت‌های علمی که خارج از انتخاب‌هایش بوده است عملا کوچکترین اطلاعی ندارد. درواقع جهان فرد فقط همان چیزی می‌شود که دنبال می‌کند.
 
صفدری تشریح کرد: اینکه این اتفاق خوب یا بد باشد نظرات متفاوتی وجود دارد برخی موافقند برخی هم نیز مخالفت دارند. اینجاست که بحث‌های اخلاقی هوش‌ مصنوعی مطرح می شود.

 
وی با ارائه چند مثال دیگر توضیح داد: برای مثال وقتی شما از گوگل ترنسلیت که فضایی به ظاهر کاملا بی‌طرف است، استفاده می‌کنید، اگر به فارسی تایپ کنید «خلیج فارس» به عربی و به غلط به شما «خلیج عرب» ترجمه می‌کند و اگر به عربی تایپ کنید «قدسنا» به اغلب زبان‌های دنیا ترجمه‌ای که به شما می‌دهد «اورشلیم ما» است در واقع افراد ارزشی که در ترجمه دوست دارند را جای داده‌اند بدون اینکه شما متوجه این موضوع باشید.
 
صفدری افزود: یا در مثالی دیگر چندی است که در گوگل نرم‌افزار تشخیص چهره راه‌اندازی شده است و وقتی در این نرم‌افزار چهره‌زنی سیاه پوست را بارگذاری می‌کنید این نرم‌افزار به مثابه یک میمون چهره این زن را دسته‌بندی می‌کند. درواقع همان تعصبات نژادی است که وارد این الگوریتم‌ها شده است.
 
وی درباره پیگیری‌های اخلاقی در هوش مصنوعی ادامه داد: حال تصور کنید که هوش مصنوعی هر روز بخش زیادی از زندگی ما را به خود اختصاص داده است امروزه بسیاری از ما تصمیم‌گیری‌های خود را به هوش مصنوعی سپرده‌ایم. این سوال وجود دارد که چه اتفاقی در انتظار ماست؟ ما امروزه اغلب تصمیماتمان را به هوش مصنوعی می‌سپاریم که به شدت جهت‌گیری شده است؟ بحث درباره این سوال جنبه را برای ما مهم می‌کند که ما باید بدانیم اخلاق در هوش مصنوعی کجاست. درواقع ناچاریم که به بها و ارزش اخلاقی آن بپردازیم، چون اگر به آن توجه نداشته باشیم، درنهایت نمی‌توانیم آن را به جامعه راه دهیم.

صفدری در پاسخ به این پرسش که امروزه کشور ما چه جایگاهی در هوش مصنوعی دارد و در بحث‌های اخلاقی آن تا کجا پیش رفته‌ایم گفت: در حال حاضر ایران کشور خیلی پیشرفته‌ای در زمینه هوش مصنوعی نیست و متعاقبا چندان بحث‌های اخلاقی آن مطرح نشده است و شاید اولین مباحث همین مدرسه زمستانه باشد. اما اینکه ما کشور پیشرفته در هوش مصنوعی نیستیم به این دلیل نیست که نباید به بحث‌های اخلاقی آن بپردازیم.
 
وی ادامه داد: به هر حال در آینده‌ای دور یا نزدیک از آن استفاده خواهیم کرد و به تبع آن بحث‌های اخلاقی آن مطرح می‌شود بنابراین اگر هم هنوز استفاده زیادی از آن‌ها نمی‌کنیم باید بحث‌های اخلاقی آن را پیش ببریم. به عقیده من اگر مردم با آگاهی از هوش مصنوعی بهره بگیرند به طور قطع توانسته ایم از آثار مخرب آن جلوگیری کنیم. باید  آینده ای را متصور شد که انسان نقش کمرنگتری در این زمینه خواهد داشت آیا هوش مصنوعی می‌داند عدالت چیست یا می‌داند دلسوزی به چه معناست؟ این‌ها بحث‌هایی است که باید در هر جامعه‌ای حل شود.
Share/Save/Bookmark
کد مطلب: 270344