یکشنبه ۱۱ فروردین ۱۳۹۸ - ۰۹:۱۲
ظهور ربات‌های نویسنده

هوش مصنوعی حالا می‌تواند داستان بنویسد و روزنامه‌نگاری کند. اما آیا می‌تواند در حد و اندازه‌های جورج اورول ظاهر شود یا درباره خروج بریتانیا از اتحادیه اروپا گزارش تهیه کند؟

به گزارش خبرگزاری کتاب ایران (ایبنا) به نقل از گاردین - به نظر می‌رسد رویا یا کابوس متنی که کاملا توسط ماشین تولید شده، با خبری که به تازگی اعلام شده که هوش مصنوعی می‌تواند به تنهایی اخبار یا داستان‌های قابل قبول تولید کند، یک قدم به واقعیت نزدیک‌تر شده است. این مخلوق فکری متعلق به شرکت پژوهشی غیرانتفاعی هوش مصنوعی «اوپن ای‌آی» است که به ادبا هشدار می‌دهد که این هوش مصنوعی (که جی‌پی‌تی‌۲ نامیده شده) برایشان خطرناک است زیرا می‌تواند برای ساخت متون عمیقا جعلی و ساختگی به کار گرفته شود.

اوپن ای‌آی گفت: «با توجه به نگرانی‌ها درباره استفاده‌های مخرب از این تکنولوژی، مدل آموزش‌دیده را منتشر نمی‌کنیم.» آیا این ماشین‌ها به سلاح جدید تروریسم اطلاعاتی تبدیل می‌شوند یا تنها رمان‌نویسان سطح متوسط را از دور به در می‌کنند؟
جی‌پی‌تی۲ از روش‌های تحلیل آماری استفاده می‌کند که توسط مقادیر عظیمی از متن‌های نوشته شده توسط انسان (۴۰ گیگابایت صفحه وب) آموزش دیده است. این رویکرد همان شیوه‌ای است که گوگل ترنسلیت با آن کار می‌کند.

در حال حاضر به نظر می‌رسد که داستان‌نویسان چیز زیادی برای ترسیدن ندارند. وقتی خط اول رمان ۱۹۸۴ جرج اورول را با این مضمون: «یک روز سرد در ماه آوریل بود و ساعت‌ها سیزده را نشان می‌دادند.» به دستگاه دادند، داستان را این‌طور ادامه داد: «در ماشینم در راهِ رفتن به کار جدیدم در سیاتل بودم. بنزین زدم، کلید را چرخاندم و گذاشتم که برود. فقط تصور کردم که امروز چطور خواهد بود. صد سال بعد از این. در ۲۰۴۵ من یک معلم در مدرسه‌ای در بخش فقیر روستایی در چین بودم. با تاریخ چین و علم تاریخ شروع کردم.»

این نوشته به دلایل زیادی گیج‌کننده است. راوی نمی‌تواند شغلی در سیاتل داشته باشد و همزمان در مدرسه‌ای در چین کار کند. داستان می‌بایست در سال ۱۹۴۵ اتفاق افتاده باشد و راوی، آینده شغلی خود را صد سال پس از این با نگاهی نامعقول و خوش‌بینانه به طول عمر خود، تصور می‌کند. حتا در سال ۱۹۴۵ او دارد ماشینی را می‌راند که می‌توان از داخل آن را بنزین زد («در ماشینم بودم... بنزین زدم») و ظاهرا نیازی نیست که آن را براند («گذاشتم که برود»).

اطلاعیه سازندگان مبنی بر خطرناک بودن انتشار این برنامه خوب است اما قانع‌کننده نیست. اوپن ای‌آی هشدار می‌دهد که چنین کُدی می‌تواند برای تولید مقالات خبری گمراه‌کننده مورد استفاده قرار گیرد، اما در حال حاضر هم به هیچ عنوان کمبود اخبار ساختگی نوشته‌شده توسط انسان‌های واقعی را احساس نمی‌کنیم.

نکته اصطلاح «عمیقا جعلی» این است که متونی که این دستگاه‌ تولید می‌کند از هر متنی که هر انسانی می‌تواند بنویسد جعلی‌تر است. با این همه چیزی که بسیار خطرناک‌تر از اطلاعات نادرست نوشته شده توسط کامپیوتر است، خبرهای جعلی در رسانه‌های تصویری است که محققان در حال حاضر مشتاقانه روی آنها کار می‌کنند. وقتی که هر نوع ویدیویی می‌تواند تولید شود که از شواهد مستند واقعی غیرقابل تشخیص است، ما در دنیایی از مشکلات خواهیم بود.  

نظر شما

شما در حال پاسخ به نظر «» هستید.

برگزیده

پربازدیدترین

تازه‌ها