چند تا از دوستانتان روبات هستند؟

ایزی‌تک - چند تا از دوستانتان روبات هستند؟

شاخه‌ای فراگیر از ادبیات داستانی، به دنیایی می‌پردازد که در آن موجودات ساختگی مانند روبات‌ها در میان ما زندگی می‌کنند و گاه تشخیص‌شان از انسان‌ها ممکن نیست. اکنون به این درک رسیده‌ایم که علاوه بر آنچه «جهان واقعی» می‌نامیم، در مجموعه‌ای از جهان‌های مجازی زندگی می‌کنیم؛ مثلاً: توییتر یا جهان توییتر یا قلمرو توییتر.

شاید گمان کنید اغراق است که آن را «جهان» بنامیم اما از بسیاری جهات، توییتر یک جهان اسباب‌بازی است که میلیون‌ها نفر جمعیت دارد و بیشتر آن‌ها به انسان‌ها شبیه‌اند و یا حتی شاید در کارهای روزانۀ خود، واقعاً انسان باشند؛ اما با گذشت زمان، تعداد کاربران توییتر که حتی وانمود نمی‌کنند انسان‌اند و یا حتی بدتر، وانمود می‌کنند انسان‌اند در حالیکه روبات هستند، رو به افزایش است.

این روبات‌ها بسیار بسیار ریز و کم توان‌اند و اغلب چیزی بیش از چند خط کد برنامه‌نویسی رایانه‌ای نیستند. نکتۀ ترسناک این است که ما به چه سادگی گول می‌خوریم.

چون جهان توییتر از متن ساخته شده و نه از سنگ و چوب و خون و استخوان، ایجاد روبات‌ها بسیار راحت است. در حا حاضر طبق تخمین‌های توییتر، میلیون‌ها روبات وجود دارند که بیشتر آن‌ها تنها مزاحم‌هایی موقت و نامرئی‌اند. فقط کافی است بتوانند بنویسند و بخوانند. برای مثال یکی از ساخته‌های توییتر به نام ComposedOf@ تنها برای این زنده است که در متن‌های توییتر عبارت “comprised of” (ترکیب‌یافته از) را جستجو کند. وقتی در جایی این عبارت را می‌یابد، یک پاسخ تولید می‌کند:

“comprised of” (ترکیب‌یافته از) ساختار دستوری ضعیفی است. به جای آن می‌توانید از “composed of” (شامل) استفاده کنید.

این تمام چیزی است که می‌گوید و هیچ کس آن را برای میزگرد الگانکوین دعوت نمی‌کند. بسیاری از افراد این پیام را آزاردهنده می‌دانند. فرهاد منجو، مقاله‌نویس بخش فناوری نیویورک‌تایمز، در توییتر نوشت:

بدترین روبات دنیا را ببینید: ComposedOf@ که ترکیب‌یافته از برنامه‌ای مزخرف است.

توجه داشته باشید که متن توییت شدۀ منجو عبارت خطا را در خود دارد. در نتیجه روبات متوجه آن شد و تنها پاسخی را که بلد بود، ارسال کرد:

“comprised of” (ترکیب‌یافته از) ساختار دستوری ضعیفی است. به جای آن می‌توانید از “composed of” (شامل) استفاده کنید.

یکی دیگر از کاربران توییتر (برای دنبال‌کنندگانش یا کسانی که او این طور فرضشان می‌کرد) پیام گذاشته بود که:

داعش «مکتبی است ترکیب‌یافته از افراد لواط‌کار، حیوان‌صفت، زن‌ستیز، قاتل». وی هشدار روبات را دریافت کرد. این فرد وقتی پیام را دریافت کرد، مشغول مکالمه با این دوست جدید خود شد:

بی‌خیال رفیق…من دارم سومین لیوانم رو سر می‌کشم…

ایزی‌تک - چند تا از دوستانتان روبات هستند؟

البته این روبات واقعاً حامیانی هم در توییتر دارد که من در شگفتم به چه امید بسته‌اند. احتمالاً کسانی که کتاب‌های ایزاک آسیموف دربارۀ روبات‌ها را خوانده بودند،‌ آثاری که در ۱۹۵۰ با “من، ربات” آغاز شدند و یا آن‌ها که به تماشای بلید رانر نشسته بودند، فیلم ۱۹۸۲ ریدلی اسکات که براساس رمان فیلیپ. کی. دیک نوشته‌شده، انتظار داشتند اندروید امکان ورود آن‌ها به دنیایی پرهیاهوتر را فراهم سازد؛ اما در واقعیت آینده اینگونه رقم می‌خورد، آن قدر معمولی که کمتر متوجه آن می‌شویم. بعضی از این روبات‌ها سال‌هاست که فعال‌اند. اسپم‌بات‌ها کار خود را با تلاش برای فروش اجناس آغاز می‌کنند:

«وای خدای من! باید این را ببینید!»

مدیران توییتر چنین پیام‌هایی را دوست ندارند و اغلب آن‌ها را متوقف می‌کنند.

البته، گاهی به نظر می‌آید که روباتی فقط می‌خواهد حال‌وهوا را تغییر دهد و رنگ‌ورویی به فضا بدهد. تکنیکی راحت برای آزمون این موضوع این است که کلمات کلیدی و «تحریک کننده» را جستجو کنیم. در یکی از پیام‌های توییترم، واژۀ «افسرده» را به کار بردم. نباید راحت این واژه را استفاده می‌کردم زیرا اگر این واژه را استفاده بکنید، مدام از برنامه‌ای که خود را لاوبات (hereissomelove@) نامیده، پیام همدردی و حمایت دریافت می‌کنید:

شما واژۀ «افسرده» را در متن خود به کار برده اید. می‌خواستیم بهتان بگوییم که شما برای ما مهم هستید و دوستتان داریم! لاوبات (hereissomelove@)

اول نسبت به آن بی‌تفاوت بودم. نکند باید به خاطر این که چند خط پایتون یا جاوااسکریپت [زبان‌های برنامه‌نویسی رایانه] من را دوست دارند خوشحال باشم؟ با این همه فکر می‌کنم که جایی در زنجیرۀ تکامل، فردی بوده با نیت خیر که تلاش می‌کرده حجم کل افسردگی جهان یا دست‌کم جهان توییتری را کاهش دهد.

بیشتر این روبات‌ها به سادگیِ اسباب‌بازی‌های کوکی‌اند؛ اما این توانایی بالقوه را دارند که بر بازار سهام تأثیر بگذارند و گفتگوهای سیاسی را برهم‌ بزنند. شگفت‌آور – و البته اگر ضمیر انسانی‌تان برآشفته شود،‌ آزاردهنده – است که یک چت‌بات با افزودن یک شکلک زنگ و یا تصویر چرخ [در گوشۀ صفحه برای تنظیمات] می‌تواند افراد را متقاعد کند.

چقدر پیچیدگی محاسباتی نیاز است تا دهان‌های حراف ما مدام تکان بخورند؟ مادربزرگ تمام چت‌بات‌ها، الیزای معروف است که در سال ۱۹۶۶ جوزف ویزنبام در مقاله‌ای در ام‌آی‌تی آن را توصیف کرد (بله بچه‌ها، الیزا پنجاه‌ساله است). کار هوشمندانۀ او این بود که روش مکالمۀ روان‌پزشکی را در برنامۀ خود به کار گرفت: این که با گوش‌دادن منفعلانه و بازخوران واژه‌ها و عبارت‌های اصلی، مراجعین بیچارۀ خود را تحریک کند. «بیشتر برایم بگو» «چرا این حس رو داری؟» «چی باعث می‌شه که فکر کنی؟» «متأسفم که می‌شنوم دلتنگی.» عجیب آنکه، ویزنبام نسبت به «هوش مصنوعی» بسیار مردد بود و تلاش می‌کرد در مقابل همکاران خوشبین‌تر خود مقاومت کند.

حرف او این بود که الیزا چیزی نمی‌دانست و چیزی نمی‌فهمید. با این حال مکالمه با او ممکن بود به حدی طولانی شود که احساسات را درگیر کند. کسانی که با الیزا هم‌صحبت می‌شدند، حس می‌کردند از سر تا پای الیزا همدردی می‌بارید.

امروزه الیزا فرزندان زیادی در توییتر دارد که با زبان‌های مختلف مشغول به کارند. «برایتان مهم است که پوستتان چنین و چنان؟» «جالب است. لطفاً ادامه دهید.» پاییز گذشته، در طول آشوب کوتاه‌مدت آنلاینی که به گیمرگیت شهرت یافت، باتی به نام الیزا آر.بار به این نبرد پیوست – این آشوب زمانی بود که هزاران فرستنده‌ی بدون نام، پیام‌هایی را در توییتر ارسال می‌کردند تا خشم خود را نسبت به دشمنان خود که گمان می‌شد فمنیست هستند، ابراز دارند. به نظر نمی‌آمد خود فرستندگان این پیام‌ها نیز انسان باشند و الیزا به میزانی که برای آن‌ها کافی باشد، واقعی بود:

من احساسات «گیمرگیت» را درک نمی‌کنم اما

elizarbarr@: جالب است. لطفاً ادامه دهید.

من که کامل توضیح دادم. منظورت چیست؟

elizarbarr@: شما با منظور من چه کار دارید؟

elizarbarr@: درباره‌اش بیشتر برایم بگویید.

فیلم رو ببین. حتماً می‌فهمی.

بعضی از مکالمات اینگونه پیش رفتند و پیش رفتند تا بالاخره فرد متوجه ماجرا می‌شد.

این روبات در جستجوی کسانی بود که با پیام‌های خود دیگران را به خشم می‌آوردند. در این صحنه ماشین‌های خودکار زیادی در کارند. نمی‌توان به این مسئله فکر نکرد که چطور افراد گیمرگیت با بی‌فکری عبارات ثابتی را منتشر می‌کردند که از مجموعۀ ازپیش‌برنامه‌ریزی‌شده‌ای از حروف نامفهوم و شعار درست شده بودند. چه کس دیگری این کار را می‌کند؟ در حوزۀ کار خدمات مشتری و پشتیبانی فنی نیز اطلاعات به وسیلۀ روبات‌ها نشر داده می‌شوند.

برای هیچ یک از کاربران توییتری راحت نیست که بتوانند مفاهیم انسانی را به شکل ۱۴۰ کاراکتری به نمایش بگذارند اما شاید نیاز باشد بازی خود را یک گام به جلو ببریم. نمی‌خواهیم در آزمون تورینگ رد شویم. نمی‌خواهیم مانند روبات ساختگی‌ای که نامش اولیویا تیترز بود به نظر آییم.

اگر هر بار که من به تو فکر می‌کردم، ستاره‌ای فرومی‌افتاد، حتماً دیگر ماه هم در آسمان نبود- اولیویا تیترز

به لطف چنین دوست پسر باشعور و خوش‌قلبی، احمق‌ها به شکل وحشتناکی دورم جمع شده‌اند-اولیویا تیترز

یا روبات جِی مک‌کارتی که به دنبال مکالماتی می‌گردد که واژۀ «کمونیست» در آن‌ها به کار رفته و یک شعار چرند اعلام می‌کند. یا بسیاری از روبات‌های دیگر که تنها برای نشان‌دادن علاقه‌شان به جاستین بیبر، کیتی پِری و لیدی گاگا وجود دارند.

گروهی از دانشمندان علوم کامپیوتر دانشگاه ایندیانا تحت مدیریت امیلیو فرارا پروژه و در واقع روباتی را خلق کرده‌اند که Bot or Not نام دارد و هدف آن تشخیص اندرویدهاست. براساس الگوریتم آن‌ها، ۳۱ درصد احتمال دارد که خود من یک روبات باشم. آن‌ها در مقالۀ فنی خود با عنوان «پیشرفت روبات‌ها» نوشتند که «مرز میان رفتار انسانی و رفتار روباتی حالا مبهم‌تر است. ما معتقدیم لازم است روبات‌ها و انسان‌ها بتوانند یکدیگر را بشناسند تا از موقعیت‌های عجیب‌وغریب و حتی خطرناک ناشی از فرضیات اشتباه اجتناب شود.»

متأسفانه ما در شناخت حسی، حتی شناخت خودمان، چندان خبره نیستیم.

این مطلب در وب‌سایت ترجمان منتشر شده است | نویسنده: جیمز گلیک | مترجم: نجمه رمضانی

مطالب مرتبط

نظر بدهید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *