6

از واقعه‌ای تو را خبر خواهم کرد

  • کد خبر : 8796
از واقعه‌ای تو را خبر خواهم کرد
ادیسون درباره الکتریسته گفته بود که با ورودش، قبل و بعد زندگی هیچ‌کس شبیه به هم نخواهد بود هوش مصنوعی هم چنین است.

به گزارش ما آنلاین به نقل از ماهنامه «مدیریت ارتباطات»، انسان همواره حسرت خلق را با خود به دوش می‌کشیده است. او به قصه‌ها و روایت‌های به‌خصوص، دینی و مذهبی گوش می‌داده و خالقی را می‌دیده که جهان را خلق کرده و به موجوداتش اجازه زیستن داده است. حسرت خلق موجب شد انسان برای آفریدن چیزی در دنیای پیرامون خود بکوشد تا به این واسطه بخشی از قدرت موجود را به انحصار درآورد. در قصه‌ها، مثلا «کلیله و دمنه»، می‌خوانیم که حیوانات صحبت می‌کنند، موضوعی که هرچند اکنون حکایت از تلاش برای فراهم آوردن زمینه‌ نقد سیاسی دارد اما از میل به برقراری تعامل کلامی با طبیعت و موجودات زنده خبر می‌دهد و به نظر می‌رسد انسان می‌خواسته با آنها به ردوبدل کردن خرد و شهود بپردازد یا در قصه‌ای دیگر، دریا را در حال سخن گفتن با خود تصور می‌کرده تا فهمی از آن را به خودش منتقل کند.

این حسرت همواره همراه بشر بود و تا پیش از دهه ۵۰ و ۶۰ میلادی و اینکه کامپیوتر همه‌گیر شود، نتوانست رفعش کند. با همه‌گیری کامپیوتر، ماشینی روی کار آمد که قدرت پردازش داشت و در داستان‌های مشهور علمی- تخیلی پر و‌ بال گرفت و به هوشی مصنوعی تبدیل شد که زبان ما را می‌فهمید و با زبان خودمان به ما پاسخ می‌داد. پس رویاپردازی چند هزارساله‌ انسان بالاخره محقق شد. زبان به‌عنوان ابزار ارتباط، تا همان‌جا هم مسیر پیچیده‌ای را طی کرده بود و در این مقطع، به‌ناچار و به‌خاطر عدم فهم پیچیدگی‌های زبان توسط کامپیوتر و بسته به نوع قدرت پردازش آن، باید زبان دیگری اختراع می‌شد که براساس صفر و یک شکل می‌گرفت. چارلز بابیج (پدر علم محاسبات کامپیوتری) در ابتدا از کارت پانچ ماشین بافندگی در کامپیوترهایش استفاده می‌کرد و مدت زمانی طول کشید تا زبان‌های برنامه‌نویسی به‌وجود آمد و سازوکاری برای آنها ایجاد شد. پس ظرفیت فنی تحقق رویای انسان هم پدید آمد.

انسان و رویاهایش برای ماشین

انسان چند رویا برای ماشین داشت. او، به‌رغم مشکل فلسفی این گزاره، می‌خواست ماشین به‌لحاظ کارایی، چیزی شبیه خودش باشد. خواستی که اکنون کوچک به نظر می‌رسد؛ چراکه ماشین‌هایی بسیار کاراتر از انسان هم وجود دارند. وقتی راجع به ماشین‌ خودران صحبت می‌کنیم بیشتر آدم‌ها فکر می‌کنند سال ۲۰۱۱، ۲۰۱۲ بود که به وجود آمد. در صورتی که ماشین خودران از سال ۱۹۹۷ وجود داشت. آن زمان در استرالیا، ماشین‌های باربریِ میان معدن و محل فرآوری سنگ، طوری تنظیم شده بودند که خودران باشند و راننده نخواهند. نکته اینجاست که هیچ خطری در مسیر این ماشین‌ها نبود، نه آدمی و نه حیوانی اما به مرور زمان، درخواست‌ها به سمت قوی‌تر شدن چشم این ماشین رفت. دوربین و قدرت پردازش آن، مانند چشمی بود که انسان به ماشین‌ داد. ماشین نوزادی بود که تا دو متری‌اش را هم نمی‌دید و انسان چشمی به آن داد که بهتر از چشم خودش می‌دید. پس انسان شروع به درست کردن چیزی مثل خودش و بهتر از خودش کرد. آنچه در ابتدا برایش اهمیت داشت قابلیت‌های حرکتی بود، پس ربات‌هایی درست کرد که بهتر از خودش حرکت می‌کردند و پیچیدگی‌های حرکتی‌، قدرت و سرعتشان هم بیشتر بود. چشم و گوشش‌شان را هم تقویت کرد و چیزی ساخت که هم بهتر از خودش حرکت می‌کرد، هم بهتر از خودش می‌دید و هم بهتر از خودش می‌شنید. آنچه جایش خالی بود، امکان صحبت کردن با هم و فهمیدن یکدیگر بود.

اینجا زبان‌شناسان به کمک مهندسان کامپیوتر آمدند تا از طریق NLP (پردازش زبان طبیعی) دریابند زبان چه‌طور کار می‌کند، درخت‌واره هر زبان به چه شکل است، ترکیباتش چه‌طور شکل می‌گیرد و… اما به‌خاطر پیچیدگی‌ موضوع، سال‌ها طول کشید تا به مدلی برسند که برای کامپیوتر قابل استفاده باشد. مدلی که نمودهای آن از حدود سال‌های ۲۰۰۶ و ۲۰۰۷ بیشتر شد. از آن زمان، تعداد ابزارهایی که مشخص بود در آن‌ها از NLP استفاده کرده‌اند تا در حدی زبان ما را بفهمند، افزایش یافت. این ابزارها در آغاز راه بیشتر از چند کلمه را نمی‌فهمیدند و درکشان فقط شامل برخی دستورات نظیر اجرا، روشن، خاموش و… بود اما با آمدن دستیارهای صوتی مثل «سیری» (۲۰۱۱) به تدریج پیچیدگی‌های مدل‌های زبانی هم بیشتر شد. وقتی از پیچیدگی حرف می‌زنیم رابطه‌ای خطی را در نظر نداریم و مثلا این که چت جی‌پی‌تی۳ (Chat GPT3)، ۷۵۰ میلیارد پارامتر دارد، به این معنا نیست که مدلی با ۹۰۰ میلیارد پارامتر، مدل بهتری است. داستان کمی پیچیده است و اگر بخواهیم به زبان ساده‌ بگوییم از این قرار است که در مدل مورد اشاره برای فهم زبان از ۷۵۰ میلیارد پارامتر استفاده می‌شود. پارامترهایی که هریک بخشی از ساختار و الگوی نوشتاری را فهم کرده و مدل می‌کنند. از ساده‌ترین نمونه‌هایش اینکه چون تعداد زیادی متن را خوانده‌اند مثلا می‌دانند هر زمان از آب‌وهوا صحبت می‌کنیم، در ادامه ترکیبی از پنج کلمه را می‌آوریم یا هنگام صحبت درمورد علوم سیاسی به طور میانگین از ترکیب هزار کلمه استفاده می‌کنیم یا اگر کسی لحن صحبتش خصمانه، شاد، راضی یا ناراضی است معمولا از چه کلماتی استفاده می‌کند و هزاران پارامتر دیگر.

مواجهه با ماشینی که حرف‌مان را می‌فهمد

وقتی پارامترها بیشتر می‌شوند، ماشینی هم که قرار است آنها را پردازش کند، دست‌نیافتنی‌تر می‌شود. حدسیات براساس قانون مور (Moore’s Law) و مدل‌نمایی افزایش قدرت پردازش، این بود که نمودهای مدل‌ زبانی مورد نیاز باید در سال‌های ۲۰۱۲، ۲۰۱۳ بیرون بیاید و آن وقت می‌توانیم ماشینی داشته باشیم که چند ترافلاپس (Teraflops) پردازش کند و می‌توان از سوپرکامپیوترها هم خواست که این مدل را اجرا کنند. البته که دسترسی‌ به سخت‌افزارهای نیرومند، همگانی نبود و این که شرکت‌ها و حتی استارت‌آپ‌های مختلف در ماه‌های گذشته، هماه نگ با هم، شروع به خروجی گرفتن از نمودهای زبانی‌شان کردند قابل تامل است. یکی از سناریوها می‌تواند انجام آزمایش اجتماعی باشد تا ببینند مواجه دنیا با ماشینی که حرفش را تا حد خیلی خوبی می‌فهمد و جواب قابل قبولی هم می‌دهد، چیست؟! نکته جالب‌توجه اینکه این تکنولوژی از سال ۲۰۱۹ وجود داشت و اینکه زودتر معرفی نشد یا به این دلیل بود که کسی جراتش را نداشت یا به این دلیل که نمی‌توانست مسیر تکوینی مورد نیاز برای عمومی کردن چنین چیزی و استفاده از آن را تدوین کند. چت جی‌پی‌تی ۴(GPT4 Chat) که ما اکنون در اوج هیجان دسترسی‌مان به آن هستیم از سال گذشته مورد استفاده بوده و نه لزوما کسانی که در Open AI )شرکت مالک این محصول که ابتدا با اهداف غیرانتفاعی تاسیس شد اما رویکردش را از سال ۲۰۱۸ به این سو تغییر داد) کار می‌کرده‌اند بلکه نهادهای بیرون از آن، کاربرش بوده‌ و درمورد توانمندی‌هایش در محافل خصوصی صحبت می‌کرده‌اند.

در محاسبه‌ای که یک پارامتر آن زمان و پارامتر دیگرش قدرت محاسبه است، می‌توان حدس زد که یک ماشین چه زمانی می‌تواند از عهده نوشتن یک پاراگراف و چه زمانی از عهده نوشتن یک مقاله سه‌هزار‌ کلمه‌ای برآید. وقتی در سال ۲۰۱۰ با این نگاه و با استفاده از قانون مور محاسبه می‌کردیم متوجه می‌شدیم که سال ۲۰۲۴ ماشینی خواهیم داشت که یک کتاب را به تنهایی می‌نویسد. چت جی‌پی‌تی۴ (GPT4 Chat) اکنون می‌تواند سفارشی پنجاه صفحه‌ای را آماده کند و جهت مقایسه، GPT-3.5 می‌توانست ۷صفحه تولید کند. خیلی‌ها فقط این لحظه را می‌بینند و هیجانی توام با نگرانی دارند درحالی‌که ضمن تاکید بر اینکه حدس می‌زنم تمام ماجرا آزمایشی اجتماعی است، باید بگویم که این مسیر سیری تکوینی داشته است. همه این مدل‌ها در ۲۰، ۲۵ سال اخیر هزاران بار مورد استفاده قرار گرفته‌اند و تا حدی در بسیاری از محصولات مورد استفاده‌مان وجود دارند. مثلا در میان نظامیان از قبل بوده و در سال‌های ۲۰۰۸، ۲۰۰۹ برای تحلیل پروژه‌هایشان استفاده می‌شده است. مثل نکاتی که ادوارد اسنودن درمورد «پریزم» (اسم رمز برنامه جاسوسی آژانس امنیت ملی ایالات متحده آمریکا) گفت. یک محور تحلیل متن بود و ایمیل‌ها و شبکه‌های اجتماعی را می‌خواند و می‌فهمید. منظور این نیست که صرفا کلیدواژه‌ها را می‌فهمید بلکه مفهوم نوشتار را کاملا درک می‌کرد.

نوک کوه یخی که ما می‌بینیم

با من موافقت می‌کنید که ما از فرآیند تکوینی این مدل‌ها، فقط نوک کوه یخ را می‌بینیم اگر بدانید که فقط کمتر از یک دهم درصد از دیتای متنیِ در دسترسِ عمومِ اینترنت، جدا و برای آموزش به چت GPT داده شده است. هرچند داده ارائه شده، قابل اعتنا است و مثلا از مقالات علمی و کتاب‌های مرجع جمع‌آوری شده اما حتی کسری از کل دیتای اینترنت هم نمی‌شود. ضمن این که سهم Deep web (وب پنهان، بخشی از دنیای اینترنت که توسط موتورهای جست‌وجوی معمولی پنهان شده و از طریق رمزگذاری‌های صورت گرفته، به کاربران عادی نمایش داده نمی‌شود) بیش از ۱۵برابر دیتای در دسترس است. تمام دیتای بشر هم که لزوما در اینترنت نیست. بحث دیتای صوتی و تصویری هم که جداست و می‌تواند بعدا خوراک این مدل‌های زبانی باشد. با این حساب شاید ۲۰ درصد همان دیتای عمومی کافی باشد تا از این لحظه به بعد ماشینی داشته باشیم که خودش سوال بپرسد و خودش هم جواب بدهد. ماشینی که بتواند مقاله علمی بنویسد، چنان‌چه همین حالا هم کسانی هستند که کل مقاله‌شان را با ماشین می‌نویسند. پس می‌توان گفت GPT-3.5 و GPT-4 برنامه‌ای است که در حال امتحان کردنش هستند و می‌خواهند ببینند واکنش آدم‌های عادی جوامع مختلف نسبت به آن چیست تا استراتژی ورود را بر اساسش طراحی کنند و اتفاقا تا همین‌جا هم جواب‌های جالبی گرفته‌اند.

Open AI قرار بود هدفش توسعه هوش مصنوعی بی‌ضرر ( friendly AI) برای خدمت به بشریت باشد اما درنهایت آن کاری را که ادعا کرده بود انجام نداد. سم آلتمن، مدیر عامل OpenAI ایده‌ای برای مدل‌های زبانی و صنعت هوش مصنوعی براساس ساختار متن باز داشت که اتفاقا بخش‌های گوناگون آن هم چندان پیچیده نبود و دیتای دیداری، شنیداری و متنی را تحلیل می‌کرد. کسانی از جمله ایلان ماسک برای این کار سرمایه‌ای در نظر گرفتند به‌شرطی که دسترسی عمومی به آن فراهم شود. پس بهترین مهندسین را آوردند و منابع خوبی هم در اختیارشان قرار دارند اما Open AI بعد از چند سال، در ۲۰۱۸، رویکردی کاملا تجاری پیدا کرد و تصمیم گرفت امکان دسترسی عمومی را محدود کند. ایلان ماسک از چنین رویکردی ناامید و معتقد بود خیانت به اصل ماجراست. اخطارهای او در آن زمان در این مورد بود که مسیر پیش رو پیچیده است، موجب ایجاد نابرابری می‌شود و باید فکری برای آن کرد.

تجاری شدن Open AI، ورود به پازل مایکروسافت را به دنبال داشت و با این که گمان می‌شد از گوگل، اپل، آمازون و… جا مانده است استراتژی خوبی اتخاذ کرد. اول GitHub (گیت‌هاب، یک سرویس میزبانی وب برای پروژه‌های نرم‌افزاری) را خرید و الان به کمک همان، بخشی بزرگی از مخزن کد باز دنیا را در دست دارد و تحلیل می‌کند. سپس بخش بزرگی از برنامه‌نویسان توانستند به کمک ابزارهایی مانند Co-Pilot از آن برای نوشتن برنامه استفاده‌ کنند. اکنون در دامنه open.ai ، استیبل دیفیوژن (Stable Diffusion) هم قابل مشاهده است که Open source (متن باز) عمل می‌کند. چون عماد مُستاق، مدیرعامل و موسس Stability AI هرچه را در اختیار داشت متن باز کرد. او پایه کارش روی education بود و یکی از استارت‌آپ‌های پیشرو دنیا را در این حوزه داشت. مُستاق معتقد بود متن باز بودن حق همه مردم است ولی OpenAI درنهایت به‌رغم ادعایی که داشت تقریباً هیچ چیز با دسترسی بازی در اختیار کاربران قرار نداد.

تکنولوژی‌ای که به چارچوب نیازمند است

وقتی عنوان متن باز می‌آید، جدا از رایگان بودن یا نبودن، کاربر باید بتواند کدها را ببیند و اگر خواست نگاشتی از آن برای خود داشته باشد. ذات متن باز بودن یعنی اینکه بتوان ایرادها را برطرف کرد، بهبودش داد و چیزی به آن اضافه کرد. هرچند مجوزهایی هم باشد که بگوید از کدها استفاده تجاری نکنید یا اگر کردید هزینه‌اش را بدهید. مسئله مهم این است که بخش بزرگی از LLMها (large language model مدل‌های زبانی بزرگ نظیر آن‌چه GPT4 استفاده می‌کند) متن باز نیستند و این محل اشکال است ضمن اینکه باید شفافیت و پاسخگویی هم داشته باشند. در غیر این‌صورت، دعوایی مانند دعوای قدیمی حوزه فلسفه علم خواهیم داشت که تکنولوژی ابزار است یا نه. اکنون می‌دانیم که ابزار نیست و همان موقع هم مثال‌های نقضی برای آن می‌آوردند. از جمله مارشال مک‌لوهان از پلی گفت که کامیون از زیر آن رد نمی‌شد و دو سویش از نظر میزان توسعه‌یافتگی با هم متفاوت بودند. وقتی آن پل، فقط پل نبود، عاملیت داشت و نقش بازی می‎کرد ببینید تکنولوژی که اتوماسیون (Automation) را در بالاترین سطح ممکن میسر کرده است، چه خواهد کرد؟

در شرایطی که یک داروساز برای آنکه دارویی را عرضه کند باید تست‌های مختلفی بگذراند تا سیستمی مطمئن شود که آن دارو حتی درصد بسیار کمی را هم اذیت نمی‌کند و اگر چنین است باید این نکته در دستور مصرفش ذکر شود عجیب است که چنین تکنولوژی‌هایی تنظیم‌گری نمی‌شوند و ملزم به شفافیت و پاسخگویی نیستند. طوری که اگر سوالی بپرسیم موظف باشند به سوال‌مان پاسخ دهند. مسئله این است که حکمرانی این حوزه نیازمند کار بسیار است و کسانی بودند که از سال ۲۰۰۸، ۲۰۰۹ درموردش صحبت می کردند و می‌گفتند درست است که علم پیشرفت می‌کند اما باید چارچوبی هم درست کرد که بخش عمده‌ای از آدم‌ها به آن پایبند باشند. این اتفاق می‌تواند مانند آن چیزی باشد که در GDPR (مقررات عمومی حفاظت از داده اتحادیه اروپا) رخ داد. هرچند در ابتدا شرکت‌هایی ناراضی بودند و تصورشان این بود که مشتری‌شان فراری می‌شود درنهایت به حریم خصوصی کاربر کمک شد. ممکن است کسانی مخالف باشند و بگویند این‌ها همه فیلم است و نهادهای نظامی و امنیتی در حال جمع‌آوری اطلاعاتند ولی درمورد هوش مصنوعی و به‌خصوص مدل‌های زبانی، پیش از این هم کسانی گفته‌اند که باید برای دوره‌ای که به تعاملی سطح بالا با ماشین‌ها می‌رسیم، فکری کرد.

ایده‌هایی هم مطرح شد و مثلا IEEE یک چارچوب برای توسعه هوش مصنوعی درست کرد که البته تمام آن را پوشش نمی‌داد و بیشتر روی بحث تبعیض متمرکز بود. بحث این بود که نبود چارچوب می‌تواند نابرابری و مشکلات دیگری ایجاد کند. مثلا فرض کنیم OpenAI اعلام کند از این به بعد فقط به بچه‌های دبستانی آمریکایی اجازه استفاده خواهد داد. در این حالت کسی نمی‌تواند از این کار منعش کند. OpenAI می‌تواند بگوید محصول خودم است و می‌خواهم در این محدوده جغرافیایی ارائه‌اش کنم اما کارش از لحاظ اخلاقی محل سوال است و میان آن کودک دبستانی آمریکایی و دیگران نابرابری ایجاد خواهد شد. GDPR مثال خوبی است برای این که نشان دهد اگرچه در خیلی از نقاط دنیا برخلاف روش‌تان عمل می‌شود اما بودن‌تان باعث آگاهی‌رسانی است. تا قبل از GDPR تعریفی برای حریم خصوصی وجود نداشت و همیشه، چه توسط دولت‌ها و چه توسط شرکت‌ها نقض می‌شد. هرچند همین الان هم می‌شود و اینستاگرام، تیک‌تاک و… را که باز می‌کنید آن‌قدر دسترسی به گوشی‌تان می‌خواهند که ترسناک است. با این وجود باز هم می‌شود بخش‌هایی را تنظیم کرد اما کسی گامی برنمی‌دارد. وقتی ایلان ماسک گفت هر آنچه را در زمینه هوش مصنوعی انجام می‌دهیم شش ماه متوقف کنیم، (هرچند شخصا فکر نمی‌کنم اثری داشته باشد)، هیچ‌کدام از شرکت‌های خصوصی جز StableDiffusion، متاثر از نگاه سرمایه‌داری، همراه او نشدند. آنچه ما با عنوان هوش مصنوعی استفاده می‌کنیم مربوط به دو ورژن قبل‌تر است و در سال ۲۰۱۴ در بازارهای مالی مورد استفاده بوده و مثلا از آن می‌پرسیده‌اند تاثیری که امروز غرق شدن کشتی ژاپن روی سهام اپل می‌گذارد چیست؟ هوش مصنوعی می‌توانست اطلاعات را هم‌بسته کند. یعنی جمله‌تان را می‌فهمید و تحلیل می‌کرد و می‌گفت که باید چه کنید. این محصول در سال ۲۰۱۴ تجاری شد. در حقیقت افرادی مانند ایلان ماسک که هشدار می‌دادند می‌دانستند در پشت پرده چه خبر است.

آدم‌هایی که بیکار می‌شوند

به یاد بیاوریم که هوش مصنوعی با کمتر از یک دهم درصد دیتای متنی دردسترس عموم دنیای اینترنت کار می‌کند. حالا فرض کنید چت GPT-4 را با دیتایی دو برابر این راه بیاندازند و دو مدل آن به چک کردن دیتایشان با هم مشغول شوند و مدل سوم، خروجی را با هم ترکیب کند تا ببینید چه دانشی تولید می‌شود. فیسبوک اکنون با Hugging Face همین کار را می‌کند و پنج، شش مدل زبانی را کنار هم می‌گذارد و وقتی سوال‌تان را می‌پرسید یا متن‌تان را می‌نویسید، خروجی آن مدل‌ها را با هم ترکیب می‌کند و پاسخش فقط از یک منظر یا مدل خاص نیست. برای همین جمع بزرگی نگرانند و مثلا مهندسان، تحلیل‌گران، برنامه‌نویسان و… احساس می‌کنند شغل‌شان را از دست خواهند داد. هرچند واقعیت این است که همین حالا هم شغل‌شان را از دست داده‌اند. منتها اعلام این خبر به آنها، مثل اعلام خبر درگذشت کسی به خانواده‌اش است و برایش زمینه‌چینی می‌کنند. در این میان ممکن است بعضی شغل‌ها مثل آجرچینی، لوله‌بازکنی و… در ابتدا تحت تاثیر قرار نگیرند اما درنهایت می‌گیرند، چون کسانی که بیکار می‌شوند به این فکر می‌کنند که رباتی بسازند که آجر بچیند، لوله را باز کند و… بنابراین همه به واسطه‌ای بیکار می‌شوند. این خبر تلخی است که فعلا نمی‌خواهند اعلامش کنند.

ممکن است آن‌چه در شش تا نه ماه اخیر در دنیای هوش مصنوعی گذشت، تست باشد چراکه مثلا در‌حالی که تا سال گذشته هیچ‌کس مدل‌های Image To Text مانند میدجورنی (Midjourney) و دال‌ای (Dall-E) را نمی‌شناخت و فقط حرفه‌ای‌ها که تخصص‌شان بود با آن‌ آشنایی داشتند، همه‌چیز ناگهان تغییر کرد. پس ممکن تستی باشد برای اینکه ببینند چه باید کرد تا جامعه متوجه و آماده شود که بدون حضور نیروی انسانی هم می‌تواند نه‌تنها بهره‌وری سابق که صدها برابر بهره‌وری بیشتر داشته باشد. می‌دانیم که عاملیت انسان برای اقتصاد سرمایه‌داری ابدا مهم نیست و اگر به آن بگویید که می‌تواند کار هفت هزار نفر را با یک ماشین انجام دهد، اگر هر هفت هزار نفر را اخراج نکند، قطعا شش هزار نفر را اخراج خواهد کرد. این خبر را به هر دلیل یا سرکوب می‌کنند یا هر سال تکه کوچکی از آن بیرون می‌آید درحالی‌که ما همین حالا هم بیکار تلقی می‌شویم و در مرحله‌ای هستیم که پناه بردن به اتاق فعلا سالم مانده ساختمان آتش گرفته هم نجات‌مان نمی‌دهد.

از سال ۲۰۰۸، ۲۰۰۹ مشخص بود که از سال ۲۰۲۵، ۲۰۲۶ اوضاع از این لحاظ که ما انسان‌ها همچنان کاری را که بلدیم انجام دهیم، به‌هم می‌ریزد. یکی از راهکارهایی که به نظر می‌رسید UBI (Universal Basic Income درآمد پایه از طرف دولت مستقل از هر درآمد دیگری) بود که «روی کاغذ» مکانیسم نسبتا خوبی داشت و براساس آن می‌شد از محل افزایش بهره‌وری اقتصاد که ناشی از اتوماسیون است به شاغلان سابق پول داد و از آنها خواست در خانه‌یشان بنشینند. شاید زمانی که پرداخت یارانه در ایران شروع شد، چنین چیزی در حال تست بود و می‌خواستند UBI را امتحان کنند و ببینند واکنش آدم‌ها چیست. این مسئله در دنیای اقتصاد با ابراز نارضایتی‌هایی از سمت متفکران سرمایه‌داری همراه شد و آن را متاثر از نگاه چپ دانستند. همین نارضایتی باعث شد کسی به شکل جدی بر روی این موضوع کار نکند درحالی‌که می‌توانست تا حدی، ضربه ناشی از تغییرات جدید را بگیرد و کمی فرصت دهد تا به این مسئله فکر شود که آدم‌هایی که کارشان را از دست می‌دهند باید چه مهارت‌هایی به دست آورند تا به‌روز محسوب شوند؟ به شکل کلی هیچ‌کس برای افزایش مهارت آدم‌ها، برای پیدا کردن راه سرگرم کردن‌شان در دوران بیکاری و برای بازتعریف هویتی که با از دست دادن شغل از دست می‌رود تلاشی نکرد مگر کمی در ژاپن و برخی کشورهای اسکاندیناوی.

از آن سوی داستان کسانی که درمورد اتوماسیون صحبت می‌کنند به این نکته دقت نمی‌کنند که بخش زیادی از پویایی اقتصاد از طبقه مصرف‌کننده می‌آید. یعنی باید کاری کنید که طبقه مصرف‌کننده‌تان ثروتمندتر شود تا بتواند در بازار هزینه کند. با بالا رفتن تولید توسط اتوماسیون، میزان تولید بالا می‌رود اما میزان مصرف‌ الزاما بیشتر نمی‌شود. پس اگرچه برآیند کار برای اقتصاد بهتر است، تمام و کمال هم مثبت نیست. ضمن این که پیچیدگی‌هایی هم در دنیای اقصاد پیش می‌آید از جمله این که حالا چه کسی قرار است کالای ما را بخرد یا تکلیف مرزها چه می‌شود اما هیچ‌کس، نه به معنای شخص، به این مسائل فکر نکرده است. هیچ کدام از نهادها، نیامده‌اند چارچوبی بگذارند و بگویند بررسی کرده‌ایم و این سند مثلا ۱۰هزار صفحه‌ای را درآورده‌ایم که پیامدهای اتوماسیون و رباتیک در زندگی مردم این است و می‌خواهیم جایی را تاسیس کنیم که آموزش‌هایی به افراد بیکارشده با سن بالاتر بدهد، جایی که از لحاظ روانی به آنها کمک کند تا در برابر ضربه بیکاری مقاومت کنند یا جایی که آدم‌ها با حضور در آن احساس کنند همچنان در جامعه مشارکت دارند.

در جامعه ما آدم‌ها که پا به سن می‌گذارند یا خانه‌نشین می‌شوند یا بیشتر وقت‌شان در پارک و … می‌گذرد اما در ژاپن تعداد زیادی از این قبیل افراد برای افزایش مشارکت اجتماعی‌شان کارهای مجانی انجام می‌دهند. چون معتقدند باید به آدم‌ها گفت که در دوران میانسالی هم از جامعه جدا نشده‌اند و آنها را صرفا به چشم کسانی که پیش از این می‌توانستند تولید کنند و حالا نمی‌توانند، نمی‌بینیم. البته که همه این‌ها برای جوامعی است که به دلیل ساختار درست رفاهی، افراد بعد از بازنشستگی مجبور به دستفروشی و کار در تاکسی اینترنتی نیستند اما درمجموع هیچ‌کس به این‌ موارد فکر نکرده است.

چه می‌توان کرد؟

از جمله کارهایی که در این زمینه انجام شد هنگامی بود که کنگره ایالات متحده آمریکا به ترامپ دستور داد از تیمی از متخصصان بخواهد چشم‌انداز برای ابعاد هوش مصنوعی (AI) معین کنند و گزارشی بدهند. آن زمان بیشتر بحث تهدیدات چین مطرح بود. در این گزارش که اریک اشمیت به‌عنوان سرپرست آن را تهیه کرد و در سال ۲۰۲۱ خطاب به کنگره منتشر شد آمده بود که آمریکا باید چه رویکردی داشته باشد و چه کمبودهایی دارد. در ابتدای این گزارش نقل قولی از ادیسون آمده بود. ادیسون در مصاحبه‌ای در سال ۱۹۰۵ در پاسخ به اینکه از او خواسته شد تکنولوژی الکتریسیته را توضیح دهد، جمله عمیقی گفت. او گفت این فناوری شبیه به هیچ‌کدام از فناوری‌های قبلی‌ نیست و درون آن رازی است که من نمی‌دانم چیست اما با ورودش، قبل و بعد زندگی هیچ‌کس شبیه به هم نخواهد بود. اتفاقی که در عمل هم رخ داد طوری که حالا بدون الکتریسیته نمی‌توان زندگی را تصور کرد. کسانی که در مدیریت فناوری کار می‌کنند هم می‌گویند هوش مصنوعی شبیه به هیچ‌کدام از فناوری‌های تاریخ نیست و نمی‌توانیم با مثلا الکتریسیته، ماشین بخار یا دستگاه چاپ مقایسه‌اش کنیم. حتی اگر عقب‌تر برویم و اختراعات پایه‌ای را نگاه کنیم، شبیه چرخ و آتش هم نیست. پس نمی‌توانیم برای تحلیل هوش مصنوعی، به فناوری‌های قبل، نگاشت (ارتباطی میان اشیاء یا ساختارهای ریاضی) بزنیم.

در موارد قبل با آمدن تکنولوژی جدید، اگر ۱۰شغل از بین می‌رفت، شغل‌هایی مساوی آن و حتی بیشتر ایجاد می‌شد. مثلا ماشین نساجی که آمد کارگر ابتدا بیکار اما بعدتر تبدیل به تعمیرکار یا سازننده‌ آن شد یا از ترکیب تکنولوژی جدید با تکنولوژی‌های قبلی شغل‌هایی شکل گرفت. بسیار می‌شنویم که هوش مصنوعی اگرچه شغل‌های زیادی را از بین می‌برد اما شغل‌هایی هم به وجود می‌آورد هرچند به نظر، مغلطه می‌رسد. چون تعداد بسیار کمی می‌توانند در شغل‌هایی که به‌وجود می‌آید مشغول به کار شوند و شاید فقط برای نسل آلفا (Generation Alpha) و لبه‌ای جایی باشد و نه حتی برای نسل Z. یعنی حتی نسل Z هم نمی‌تواند از شغل‌هایی که هوش مصنوعی ایجاد می‌کند سهمی داشته باشد. چراکه فرصت تطبیق و بازآموزی برایش فراهم نشده است. درحالی‌که مثلا «آی‌تی» این‌طور نبود. از لحظه‌ای که اولین ویرایشگر متن آمد، شغل حروف‌چینی هم از بین رفت اما این اتفاق یک‌شبه رخ نداد، دوره گذاری طی شد و شخص فرصت داشت خودش را به‌روز کند. درمورد هوش مصنوعی اما اولا چنین فرصتی به کسی داده نمی‌شود و اصلا این‌طور نیست که فکر کنید مثلا پنج سال وقت دارید که خودتان را تطبیق دهید، ثانیا تعداد شغل‌هایی که ایجاد می‌شود اصلا با تعداد شغل‌هایی که از بین می‌رود قابل مقایسه نیست و ثالثا تعداد اندکی می‌توانند در فرصت‌های شغلی ایجادشده مشغول به کار شوند چون باقی به‌روز نشده‌اند و این فرآیندی تدریجی نیست که فلان سال دیگر برایش وقت داشته باشیم. الان می‌توانیم به هوش مصنوعی بگوییم برایمان به سبک اسکورسیزی یا تارکوفسکی فیلمنامه بنویس و این مهارتی است که ما هیچ وقت نمی‌توانستیم داشته باشیم.

برخی معتقدند هوش مصنوعی درنهایت می‌تواند از دانش موجود استفاده کند و نمی‌تواند آن را گامی به پیش ببرد. آنها می‌گویند هوش مصنوعی passive است و خودش دانشی ایجاد نمی‌کند. برای روشن‌تر شدن مسئله می‌توان به ساختار دانش‌افزایی انسان نگاه کرد. ما هنگامی که درمورد موضوعی، چه تجربی و چه ذهنی دچار ابهام هستیم ابتدا تعداد زیادی کتاب می‌خوانیم و سپس سر کلاس بهترین آدم‌های آن حوزه می‌نشینم. بعد اینها را با هم جمع می‌کنیم و چیزی می‌فهمیم یا به حوزه‌ای دیگر نگاشت می‌زنیم. مثلا اگر در حوزه اقتصاد کار می‌کنیم وقتی می‌بینیم کسی در حوزه روانشناسی چیزی گفته است که به کارمان می‌آید، دانش‌مان را از دو حوزه کنار هم می‌گذاریم و به تحلیلی درمورد روانشناسی رفتار مصرف‌کننده می‌رسیم. شکل افزایش دانش ما همچنان همین است و هرچند به‌نظر خودمان activeness (فعال بودن) زیادی در آن وجود دارد اما با این الگو باز هم passive (منفعل) است.

در کیس‌سناریوها، ما این سو نشسته‌ایم و هوش مصنوعی آن سو. ما از او سوال می‌پرسیم و او، دانش تجمیع‌شده‌ای را که خودمان احتمالا هیچ‌وقت نمی‌توانیم بخوانیم به ما ارائه می‌کند. فرض کنید در حوزه پزشکی، یک پزشک جراح در سال چند مقاله می‌تواند بخواند، اگر فرصت کند ۲۰۰ مقاله اما در حوزه کاری او در سال ۷۰ هزار مقاله منتشر می‌شود. خواندن و فهمیدن آن ۷۰ هزار مقاله برای ماشین، کسری از ثانیه است و وقتی به سوالی جواب می‌دهد، از بهترین‌ها منبع می‌آورد. حالا به‌جای ما، ماشین دیگری روبه‌روی ماشین پاسخ‌دهنده می‌نشیند و بیشتر از آن که جواب دهد، سوال می‌پرسد. تا جایی که تمام سوالات بشر را جمع می‌کند. آن زمان دانش تولید و خرد خلق می‌شود. چراکه این آزادی عمل به ماشین داده شده است که مثلا اقتصاد را با زیست‌شناسی ترکیب و به انبوهی از مدل‌های جدید دست پیدا کند، کاری که انسان شاید در طول حضور یک نسل از بزرگترین دانشجویان دانشکده‌های اقتصاد با صدها تز دکترا موفق به انجام آن شود.

تولید دانش برای ما یا زمانی اتفاق می‌افتد که کشفی انجام دهیم و قانونی را پیدا کنیم یا زمانی که آنچه را وجود ندارد بسازیم و با الهام از طبیعت چیزی خلق کنیم. هوش مصنوعی هم در کشف و هم در خلق با فاصله بهتر از انسان عمل می‌کند و تا اینجا، ماشینی که می‌خواستیم شبیه خودمان درستش کنیم تقریبا تمام ویژگی‌هایش بهتر از ماست. حواس، چشم و گوشش بهتر از ما و تنها مسئله‌اش زبان بود که آن را هم پیدا کرد. حالا مثل انسانی است که از تمام فلاسفه بیشتر کتاب خوانده، چشمش از همه‌شان بهتر می‌بیند، گوشش از همه‌شان بهتر می‌شنود و حواسش از همه‌شان جمع‌تر است. برای همین بیکار شدن ما هم بیراه نیست و این شاید اولین موردی در تاریخ باشد که تعداد شغل‌هایی که توسط صنعتی ایجاد می‌شود از تعداد شغل‌هایی که از بین می‌رود بسیار کمتر است و شغل‌های ایجاد‌شده باز هم توسط ماشین بهتر انجام می‌شود.

این متن، نسخه مکتوب گفت‌وگوی مفصل شماره ۱۵۶ ماهنامه «مدیریت ارتباطات» با مسعود زمانی، پژوهشگر آینده فناوری است. شماره ۱۵۶ ماهنامه «مدیریت ارتباطات» را می‌توانید از دی‌جی‌کالا سفارش دهید.

لینک کوتاه : https://cmmagazine.ir/?p=8796
  • نویسنده : مسعود زمانی، پژوهشگر آینده فناوری
  • منبع : شماره ۱۵۶ ماهنامه «مدیریت ارتباطات»

ثبت دیدگاه

دیدگاهها بسته است.