به گزارش ما آنلاین به نقل از ماهنامه «مدیریت ارتباطات»، انسان همواره حسرت خلق را با خود به دوش میکشیده است. او به قصهها و روایتهای بهخصوص، دینی و مذهبی گوش میداده و خالقی را میدیده که جهان را خلق کرده و به موجوداتش اجازه زیستن داده است. حسرت خلق موجب شد انسان برای آفریدن چیزی در دنیای پیرامون خود بکوشد تا به این واسطه بخشی از قدرت موجود را به انحصار درآورد. در قصهها، مثلا «کلیله و دمنه»، میخوانیم که حیوانات صحبت میکنند، موضوعی که هرچند اکنون حکایت از تلاش برای فراهم آوردن زمینه نقد سیاسی دارد اما از میل به برقراری تعامل کلامی با طبیعت و موجودات زنده خبر میدهد و به نظر میرسد انسان میخواسته با آنها به ردوبدل کردن خرد و شهود بپردازد یا در قصهای دیگر، دریا را در حال سخن گفتن با خود تصور میکرده تا فهمی از آن را به خودش منتقل کند.
این حسرت همواره همراه بشر بود و تا پیش از دهه 50 و 60 میلادی و اینکه کامپیوتر همهگیر شود، نتوانست رفعش کند. با همهگیری کامپیوتر، ماشینی روی کار آمد که قدرت پردازش داشت و در داستانهای مشهور علمی- تخیلی پر و بال گرفت و به هوشی مصنوعی تبدیل شد که زبان ما را میفهمید و با زبان خودمان به ما پاسخ میداد. پس رویاپردازی چند هزارساله انسان بالاخره محقق شد. زبان بهعنوان ابزار ارتباط، تا همانجا هم مسیر پیچیدهای را طی کرده بود و در این مقطع، بهناچار و بهخاطر عدم فهم پیچیدگیهای زبان توسط کامپیوتر و بسته به نوع قدرت پردازش آن، باید زبان دیگری اختراع میشد که براساس صفر و یک شکل میگرفت. چارلز بابیج (پدر علم محاسبات کامپیوتری) در ابتدا از کارت پانچ ماشین بافندگی در کامپیوترهایش استفاده میکرد و مدت زمانی طول کشید تا زبانهای برنامهنویسی بهوجود آمد و سازوکاری برای آنها ایجاد شد. پس ظرفیت فنی تحقق رویای انسان هم پدید آمد.
انسان و رویاهایش برای ماشین
انسان چند رویا برای ماشین داشت. او، بهرغم مشکل فلسفی این گزاره، میخواست ماشین بهلحاظ کارایی، چیزی شبیه خودش باشد. خواستی که اکنون کوچک به نظر میرسد؛ چراکه ماشینهایی بسیار کاراتر از انسان هم وجود دارند. وقتی راجع به ماشین خودران صحبت میکنیم بیشتر آدمها فکر میکنند سال 2011، 2012 بود که به وجود آمد. در صورتی که ماشین خودران از سال 1997 وجود داشت. آن زمان در استرالیا، ماشینهای باربریِ میان معدن و محل فرآوری سنگ، طوری تنظیم شده بودند که خودران باشند و راننده نخواهند. نکته اینجاست که هیچ خطری در مسیر این ماشینها نبود، نه آدمی و نه حیوانی اما به مرور زمان، درخواستها به سمت قویتر شدن چشم این ماشین رفت. دوربین و قدرت پردازش آن، مانند چشمی بود که انسان به ماشین داد. ماشین نوزادی بود که تا دو متریاش را هم نمیدید و انسان چشمی به آن داد که بهتر از چشم خودش میدید. پس انسان شروع به درست کردن چیزی مثل خودش و بهتر از خودش کرد. آنچه در ابتدا برایش اهمیت داشت قابلیتهای حرکتی بود، پس رباتهایی درست کرد که بهتر از خودش حرکت میکردند و پیچیدگیهای حرکتی، قدرت و سرعتشان هم بیشتر بود. چشم و گوشششان را هم تقویت کرد و چیزی ساخت که هم بهتر از خودش حرکت میکرد، هم بهتر از خودش میدید و هم بهتر از خودش میشنید. آنچه جایش خالی بود، امکان صحبت کردن با هم و فهمیدن یکدیگر بود.
اینجا زبانشناسان به کمک مهندسان کامپیوتر آمدند تا از طریق NLP (پردازش زبان طبیعی) دریابند زبان چهطور کار میکند، درختواره هر زبان به چه شکل است، ترکیباتش چهطور شکل میگیرد و… اما بهخاطر پیچیدگی موضوع، سالها طول کشید تا به مدلی برسند که برای کامپیوتر قابل استفاده باشد. مدلی که نمودهای آن از حدود سالهای 2006 و 2007 بیشتر شد. از آن زمان، تعداد ابزارهایی که مشخص بود در آنها از NLP استفاده کردهاند تا در حدی زبان ما را بفهمند، افزایش یافت. این ابزارها در آغاز راه بیشتر از چند کلمه را نمیفهمیدند و درکشان فقط شامل برخی دستورات نظیر اجرا، روشن، خاموش و… بود اما با آمدن دستیارهای صوتی مثل «سیری» (2011) به تدریج پیچیدگیهای مدلهای زبانی هم بیشتر شد. وقتی از پیچیدگی حرف میزنیم رابطهای خطی را در نظر نداریم و مثلا این که چت جیپیتی3 (Chat GPT3)، 750 میلیارد پارامتر دارد، به این معنا نیست که مدلی با 900 میلیارد پارامتر، مدل بهتری است. داستان کمی پیچیده است و اگر بخواهیم به زبان ساده بگوییم از این قرار است که در مدل مورد اشاره برای فهم زبان از 750 میلیارد پارامتر استفاده میشود. پارامترهایی که هریک بخشی از ساختار و الگوی نوشتاری را فهم کرده و مدل میکنند. از سادهترین نمونههایش اینکه چون تعداد زیادی متن را خواندهاند مثلا میدانند هر زمان از آبوهوا صحبت میکنیم، در ادامه ترکیبی از پنج کلمه را میآوریم یا هنگام صحبت درمورد علوم سیاسی به طور میانگین از ترکیب هزار کلمه استفاده میکنیم یا اگر کسی لحن صحبتش خصمانه، شاد، راضی یا ناراضی است معمولا از چه کلماتی استفاده میکند و هزاران پارامتر دیگر.
مواجهه با ماشینی که حرفمان را میفهمد
وقتی پارامترها بیشتر میشوند، ماشینی هم که قرار است آنها را پردازش کند، دستنیافتنیتر میشود. حدسیات براساس قانون مور (Moore’s Law) و مدلنمایی افزایش قدرت پردازش، این بود که نمودهای مدل زبانی مورد نیاز باید در سالهای 2012، 2013 بیرون بیاید و آن وقت میتوانیم ماشینی داشته باشیم که چند ترافلاپس (Teraflops) پردازش کند و میتوان از سوپرکامپیوترها هم خواست که این مدل را اجرا کنند. البته که دسترسی به سختافزارهای نیرومند، همگانی نبود و این که شرکتها و حتی استارتآپهای مختلف در ماههای گذشته، هماه نگ با هم، شروع به خروجی گرفتن از نمودهای زبانیشان کردند قابل تامل است. یکی از سناریوها میتواند انجام آزمایش اجتماعی باشد تا ببینند مواجه دنیا با ماشینی که حرفش را تا حد خیلی خوبی میفهمد و جواب قابل قبولی هم میدهد، چیست؟! نکته جالبتوجه اینکه این تکنولوژی از سال 2019 وجود داشت و اینکه زودتر معرفی نشد یا به این دلیل بود که کسی جراتش را نداشت یا به این دلیل که نمیتوانست مسیر تکوینی مورد نیاز برای عمومی کردن چنین چیزی و استفاده از آن را تدوین کند. چت جیپیتی 4(GPT4 Chat) که ما اکنون در اوج هیجان دسترسیمان به آن هستیم از سال گذشته مورد استفاده بوده و نه لزوما کسانی که در Open AI )شرکت مالک این محصول که ابتدا با اهداف غیرانتفاعی تاسیس شد اما رویکردش را از سال 2018 به این سو تغییر داد) کار میکردهاند بلکه نهادهای بیرون از آن، کاربرش بوده و درمورد توانمندیهایش در محافل خصوصی صحبت میکردهاند.
در محاسبهای که یک پارامتر آن زمان و پارامتر دیگرش قدرت محاسبه است، میتوان حدس زد که یک ماشین چه زمانی میتواند از عهده نوشتن یک پاراگراف و چه زمانی از عهده نوشتن یک مقاله سههزار کلمهای برآید. وقتی در سال 2010 با این نگاه و با استفاده از قانون مور محاسبه میکردیم متوجه میشدیم که سال 2024 ماشینی خواهیم داشت که یک کتاب را به تنهایی مینویسد. چت جیپیتی4 (GPT4 Chat) اکنون میتواند سفارشی پنجاه صفحهای را آماده کند و جهت مقایسه، GPT-3.5 میتوانست 7صفحه تولید کند. خیلیها فقط این لحظه را میبینند و هیجانی توام با نگرانی دارند درحالیکه ضمن تاکید بر اینکه حدس میزنم تمام ماجرا آزمایشی اجتماعی است، باید بگویم که این مسیر سیری تکوینی داشته است. همه این مدلها در 20، 25 سال اخیر هزاران بار مورد استفاده قرار گرفتهاند و تا حدی در بسیاری از محصولات مورد استفادهمان وجود دارند. مثلا در میان نظامیان از قبل بوده و در سالهای 2008، 2009 برای تحلیل پروژههایشان استفاده میشده است. مثل نکاتی که ادوارد اسنودن درمورد «پریزم» (اسم رمز برنامه جاسوسی آژانس امنیت ملی ایالات متحده آمریکا) گفت. یک محور تحلیل متن بود و ایمیلها و شبکههای اجتماعی را میخواند و میفهمید. منظور این نیست که صرفا کلیدواژهها را میفهمید بلکه مفهوم نوشتار را کاملا درک میکرد.
نوک کوه یخی که ما میبینیم
با من موافقت میکنید که ما از فرآیند تکوینی این مدلها، فقط نوک کوه یخ را میبینیم اگر بدانید که فقط کمتر از یک دهم درصد از دیتای متنیِ در دسترسِ عمومِ اینترنت، جدا و برای آموزش به چت GPT داده شده است. هرچند داده ارائه شده، قابل اعتنا است و مثلا از مقالات علمی و کتابهای مرجع جمعآوری شده اما حتی کسری از کل دیتای اینترنت هم نمیشود. ضمن این که سهم Deep web (وب پنهان، بخشی از دنیای اینترنت که توسط موتورهای جستوجوی معمولی پنهان شده و از طریق رمزگذاریهای صورت گرفته، به کاربران عادی نمایش داده نمیشود) بیش از 15برابر دیتای در دسترس است. تمام دیتای بشر هم که لزوما در اینترنت نیست. بحث دیتای صوتی و تصویری هم که جداست و میتواند بعدا خوراک این مدلهای زبانی باشد. با این حساب شاید 20 درصد همان دیتای عمومی کافی باشد تا از این لحظه به بعد ماشینی داشته باشیم که خودش سوال بپرسد و خودش هم جواب بدهد. ماشینی که بتواند مقاله علمی بنویسد، چنانچه همین حالا هم کسانی هستند که کل مقالهشان را با ماشین مینویسند. پس میتوان گفت GPT-3.5 و GPT-4 برنامهای است که در حال امتحان کردنش هستند و میخواهند ببینند واکنش آدمهای عادی جوامع مختلف نسبت به آن چیست تا استراتژی ورود را بر اساسش طراحی کنند و اتفاقا تا همینجا هم جوابهای جالبی گرفتهاند.
Open AI قرار بود هدفش توسعه هوش مصنوعی بیضرر ( friendly AI) برای خدمت به بشریت باشد اما درنهایت آن کاری را که ادعا کرده بود انجام نداد. سم آلتمن، مدیر عامل OpenAI ایدهای برای مدلهای زبانی و صنعت هوش مصنوعی براساس ساختار متن باز داشت که اتفاقا بخشهای گوناگون آن هم چندان پیچیده نبود و دیتای دیداری، شنیداری و متنی را تحلیل میکرد. کسانی از جمله ایلان ماسک برای این کار سرمایهای در نظر گرفتند بهشرطی که دسترسی عمومی به آن فراهم شود. پس بهترین مهندسین را آوردند و منابع خوبی هم در اختیارشان قرار دارند اما Open AI بعد از چند سال، در 2018، رویکردی کاملا تجاری پیدا کرد و تصمیم گرفت امکان دسترسی عمومی را محدود کند. ایلان ماسک از چنین رویکردی ناامید و معتقد بود خیانت به اصل ماجراست. اخطارهای او در آن زمان در این مورد بود که مسیر پیش رو پیچیده است، موجب ایجاد نابرابری میشود و باید فکری برای آن کرد.
تجاری شدن Open AI، ورود به پازل مایکروسافت را به دنبال داشت و با این که گمان میشد از گوگل، اپل، آمازون و… جا مانده است استراتژی خوبی اتخاذ کرد. اول GitHub (گیتهاب، یک سرویس میزبانی وب برای پروژههای نرمافزاری) را خرید و الان به کمک همان، بخشی بزرگی از مخزن کد باز دنیا را در دست دارد و تحلیل میکند. سپس بخش بزرگی از برنامهنویسان توانستند به کمک ابزارهایی مانند Co-Pilot از آن برای نوشتن برنامه استفاده کنند. اکنون در دامنه open.ai ، استیبل دیفیوژن (Stable Diffusion) هم قابل مشاهده است که Open source (متن باز) عمل میکند. چون عماد مُستاق، مدیرعامل و موسس Stability AI هرچه را در اختیار داشت متن باز کرد. او پایه کارش روی education بود و یکی از استارتآپهای پیشرو دنیا را در این حوزه داشت. مُستاق معتقد بود متن باز بودن حق همه مردم است ولی OpenAI درنهایت بهرغم ادعایی که داشت تقریباً هیچ چیز با دسترسی بازی در اختیار کاربران قرار نداد.
تکنولوژیای که به چارچوب نیازمند است
وقتی عنوان متن باز میآید، جدا از رایگان بودن یا نبودن، کاربر باید بتواند کدها را ببیند و اگر خواست نگاشتی از آن برای خود داشته باشد. ذات متن باز بودن یعنی اینکه بتوان ایرادها را برطرف کرد، بهبودش داد و چیزی به آن اضافه کرد. هرچند مجوزهایی هم باشد که بگوید از کدها استفاده تجاری نکنید یا اگر کردید هزینهاش را بدهید. مسئله مهم این است که بخش بزرگی از LLMها (large language model مدلهای زبانی بزرگ نظیر آنچه GPT4 استفاده میکند) متن باز نیستند و این محل اشکال است ضمن اینکه باید شفافیت و پاسخگویی هم داشته باشند. در غیر اینصورت، دعوایی مانند دعوای قدیمی حوزه فلسفه علم خواهیم داشت که تکنولوژی ابزار است یا نه. اکنون میدانیم که ابزار نیست و همان موقع هم مثالهای نقضی برای آن میآوردند. از جمله مارشال مکلوهان از پلی گفت که کامیون از زیر آن رد نمیشد و دو سویش از نظر میزان توسعهیافتگی با هم متفاوت بودند. وقتی آن پل، فقط پل نبود، عاملیت داشت و نقش بازی میکرد ببینید تکنولوژی که اتوماسیون (Automation) را در بالاترین سطح ممکن میسر کرده است، چه خواهد کرد؟
در شرایطی که یک داروساز برای آنکه دارویی را عرضه کند باید تستهای مختلفی بگذراند تا سیستمی مطمئن شود که آن دارو حتی درصد بسیار کمی را هم اذیت نمیکند و اگر چنین است باید این نکته در دستور مصرفش ذکر شود عجیب است که چنین تکنولوژیهایی تنظیمگری نمیشوند و ملزم به شفافیت و پاسخگویی نیستند. طوری که اگر سوالی بپرسیم موظف باشند به سوالمان پاسخ دهند. مسئله این است که حکمرانی این حوزه نیازمند کار بسیار است و کسانی بودند که از سال 2008، 2009 درموردش صحبت می کردند و میگفتند درست است که علم پیشرفت میکند اما باید چارچوبی هم درست کرد که بخش عمدهای از آدمها به آن پایبند باشند. این اتفاق میتواند مانند آن چیزی باشد که در GDPR (مقررات عمومی حفاظت از داده اتحادیه اروپا) رخ داد. هرچند در ابتدا شرکتهایی ناراضی بودند و تصورشان این بود که مشتریشان فراری میشود درنهایت به حریم خصوصی کاربر کمک شد. ممکن است کسانی مخالف باشند و بگویند اینها همه فیلم است و نهادهای نظامی و امنیتی در حال جمعآوری اطلاعاتند ولی درمورد هوش مصنوعی و بهخصوص مدلهای زبانی، پیش از این هم کسانی گفتهاند که باید برای دورهای که به تعاملی سطح بالا با ماشینها میرسیم، فکری کرد.
ایدههایی هم مطرح شد و مثلا IEEE یک چارچوب برای توسعه هوش مصنوعی درست کرد که البته تمام آن را پوشش نمیداد و بیشتر روی بحث تبعیض متمرکز بود. بحث این بود که نبود چارچوب میتواند نابرابری و مشکلات دیگری ایجاد کند. مثلا فرض کنیم OpenAI اعلام کند از این به بعد فقط به بچههای دبستانی آمریکایی اجازه استفاده خواهد داد. در این حالت کسی نمیتواند از این کار منعش کند. OpenAI میتواند بگوید محصول خودم است و میخواهم در این محدوده جغرافیایی ارائهاش کنم اما کارش از لحاظ اخلاقی محل سوال است و میان آن کودک دبستانی آمریکایی و دیگران نابرابری ایجاد خواهد شد. GDPR مثال خوبی است برای این که نشان دهد اگرچه در خیلی از نقاط دنیا برخلاف روشتان عمل میشود اما بودنتان باعث آگاهیرسانی است. تا قبل از GDPR تعریفی برای حریم خصوصی وجود نداشت و همیشه، چه توسط دولتها و چه توسط شرکتها نقض میشد. هرچند همین الان هم میشود و اینستاگرام، تیکتاک و… را که باز میکنید آنقدر دسترسی به گوشیتان میخواهند که ترسناک است. با این وجود باز هم میشود بخشهایی را تنظیم کرد اما کسی گامی برنمیدارد. وقتی ایلان ماسک گفت هر آنچه را در زمینه هوش مصنوعی انجام میدهیم شش ماه متوقف کنیم، (هرچند شخصا فکر نمیکنم اثری داشته باشد)، هیچکدام از شرکتهای خصوصی جز StableDiffusion، متاثر از نگاه سرمایهداری، همراه او نشدند. آنچه ما با عنوان هوش مصنوعی استفاده میکنیم مربوط به دو ورژن قبلتر است و در سال 2014 در بازارهای مالی مورد استفاده بوده و مثلا از آن میپرسیدهاند تاثیری که امروز غرق شدن کشتی ژاپن روی سهام اپل میگذارد چیست؟ هوش مصنوعی میتوانست اطلاعات را همبسته کند. یعنی جملهتان را میفهمید و تحلیل میکرد و میگفت که باید چه کنید. این محصول در سال 2014 تجاری شد. در حقیقت افرادی مانند ایلان ماسک که هشدار میدادند میدانستند در پشت پرده چه خبر است.
آدمهایی که بیکار میشوند
به یاد بیاوریم که هوش مصنوعی با کمتر از یک دهم درصد دیتای متنی دردسترس عموم دنیای اینترنت کار میکند. حالا فرض کنید چت GPT-4 را با دیتایی دو برابر این راه بیاندازند و دو مدل آن به چک کردن دیتایشان با هم مشغول شوند و مدل سوم، خروجی را با هم ترکیب کند تا ببینید چه دانشی تولید میشود. فیسبوک اکنون با Hugging Face همین کار را میکند و پنج، شش مدل زبانی را کنار هم میگذارد و وقتی سوالتان را میپرسید یا متنتان را مینویسید، خروجی آن مدلها را با هم ترکیب میکند و پاسخش فقط از یک منظر یا مدل خاص نیست. برای همین جمع بزرگی نگرانند و مثلا مهندسان، تحلیلگران، برنامهنویسان و… احساس میکنند شغلشان را از دست خواهند داد. هرچند واقعیت این است که همین حالا هم شغلشان را از دست دادهاند. منتها اعلام این خبر به آنها، مثل اعلام خبر درگذشت کسی به خانوادهاش است و برایش زمینهچینی میکنند. در این میان ممکن است بعضی شغلها مثل آجرچینی، لولهبازکنی و… در ابتدا تحت تاثیر قرار نگیرند اما درنهایت میگیرند، چون کسانی که بیکار میشوند به این فکر میکنند که رباتی بسازند که آجر بچیند، لوله را باز کند و… بنابراین همه به واسطهای بیکار میشوند. این خبر تلخی است که فعلا نمیخواهند اعلامش کنند.
ممکن است آنچه در شش تا نه ماه اخیر در دنیای هوش مصنوعی گذشت، تست باشد چراکه مثلا درحالی که تا سال گذشته هیچکس مدلهای Image To Text مانند میدجورنی (Midjourney) و دالای (Dall-E) را نمیشناخت و فقط حرفهایها که تخصصشان بود با آن آشنایی داشتند، همهچیز ناگهان تغییر کرد. پس ممکن تستی باشد برای اینکه ببینند چه باید کرد تا جامعه متوجه و آماده شود که بدون حضور نیروی انسانی هم میتواند نهتنها بهرهوری سابق که صدها برابر بهرهوری بیشتر داشته باشد. میدانیم که عاملیت انسان برای اقتصاد سرمایهداری ابدا مهم نیست و اگر به آن بگویید که میتواند کار هفت هزار نفر را با یک ماشین انجام دهد، اگر هر هفت هزار نفر را اخراج نکند، قطعا شش هزار نفر را اخراج خواهد کرد. این خبر را به هر دلیل یا سرکوب میکنند یا هر سال تکه کوچکی از آن بیرون میآید درحالیکه ما همین حالا هم بیکار تلقی میشویم و در مرحلهای هستیم که پناه بردن به اتاق فعلا سالم مانده ساختمان آتش گرفته هم نجاتمان نمیدهد.
از سال 2008، 2009 مشخص بود که از سال 2025، 2026 اوضاع از این لحاظ که ما انسانها همچنان کاری را که بلدیم انجام دهیم، بههم میریزد. یکی از راهکارهایی که به نظر میرسید UBI (Universal Basic Income درآمد پایه از طرف دولت مستقل از هر درآمد دیگری) بود که «روی کاغذ» مکانیسم نسبتا خوبی داشت و براساس آن میشد از محل افزایش بهرهوری اقتصاد که ناشی از اتوماسیون است به شاغلان سابق پول داد و از آنها خواست در خانهیشان بنشینند. شاید زمانی که پرداخت یارانه در ایران شروع شد، چنین چیزی در حال تست بود و میخواستند UBI را امتحان کنند و ببینند واکنش آدمها چیست. این مسئله در دنیای اقتصاد با ابراز نارضایتیهایی از سمت متفکران سرمایهداری همراه شد و آن را متاثر از نگاه چپ دانستند. همین نارضایتی باعث شد کسی به شکل جدی بر روی این موضوع کار نکند درحالیکه میتوانست تا حدی، ضربه ناشی از تغییرات جدید را بگیرد و کمی فرصت دهد تا به این مسئله فکر شود که آدمهایی که کارشان را از دست میدهند باید چه مهارتهایی به دست آورند تا بهروز محسوب شوند؟ به شکل کلی هیچکس برای افزایش مهارت آدمها، برای پیدا کردن راه سرگرم کردنشان در دوران بیکاری و برای بازتعریف هویتی که با از دست دادن شغل از دست میرود تلاشی نکرد مگر کمی در ژاپن و برخی کشورهای اسکاندیناوی.
از آن سوی داستان کسانی که درمورد اتوماسیون صحبت میکنند به این نکته دقت نمیکنند که بخش زیادی از پویایی اقتصاد از طبقه مصرفکننده میآید. یعنی باید کاری کنید که طبقه مصرفکنندهتان ثروتمندتر شود تا بتواند در بازار هزینه کند. با بالا رفتن تولید توسط اتوماسیون، میزان تولید بالا میرود اما میزان مصرف الزاما بیشتر نمیشود. پس اگرچه برآیند کار برای اقتصاد بهتر است، تمام و کمال هم مثبت نیست. ضمن این که پیچیدگیهایی هم در دنیای اقصاد پیش میآید از جمله این که حالا چه کسی قرار است کالای ما را بخرد یا تکلیف مرزها چه میشود اما هیچکس، نه به معنای شخص، به این مسائل فکر نکرده است. هیچ کدام از نهادها، نیامدهاند چارچوبی بگذارند و بگویند بررسی کردهایم و این سند مثلا 10هزار صفحهای را درآوردهایم که پیامدهای اتوماسیون و رباتیک در زندگی مردم این است و میخواهیم جایی را تاسیس کنیم که آموزشهایی به افراد بیکارشده با سن بالاتر بدهد، جایی که از لحاظ روانی به آنها کمک کند تا در برابر ضربه بیکاری مقاومت کنند یا جایی که آدمها با حضور در آن احساس کنند همچنان در جامعه مشارکت دارند.
در جامعه ما آدمها که پا به سن میگذارند یا خانهنشین میشوند یا بیشتر وقتشان در پارک و … میگذرد اما در ژاپن تعداد زیادی از این قبیل افراد برای افزایش مشارکت اجتماعیشان کارهای مجانی انجام میدهند. چون معتقدند باید به آدمها گفت که در دوران میانسالی هم از جامعه جدا نشدهاند و آنها را صرفا به چشم کسانی که پیش از این میتوانستند تولید کنند و حالا نمیتوانند، نمیبینیم. البته که همه اینها برای جوامعی است که به دلیل ساختار درست رفاهی، افراد بعد از بازنشستگی مجبور به دستفروشی و کار در تاکسی اینترنتی نیستند اما درمجموع هیچکس به این موارد فکر نکرده است.
چه میتوان کرد؟
از جمله کارهایی که در این زمینه انجام شد هنگامی بود که کنگره ایالات متحده آمریکا به ترامپ دستور داد از تیمی از متخصصان بخواهد چشمانداز برای ابعاد هوش مصنوعی (AI) معین کنند و گزارشی بدهند. آن زمان بیشتر بحث تهدیدات چین مطرح بود. در این گزارش که اریک اشمیت بهعنوان سرپرست آن را تهیه کرد و در سال 2021 خطاب به کنگره منتشر شد آمده بود که آمریکا باید چه رویکردی داشته باشد و چه کمبودهایی دارد. در ابتدای این گزارش نقل قولی از ادیسون آمده بود. ادیسون در مصاحبهای در سال 1905 در پاسخ به اینکه از او خواسته شد تکنولوژی الکتریسیته را توضیح دهد، جمله عمیقی گفت. او گفت این فناوری شبیه به هیچکدام از فناوریهای قبلی نیست و درون آن رازی است که من نمیدانم چیست اما با ورودش، قبل و بعد زندگی هیچکس شبیه به هم نخواهد بود. اتفاقی که در عمل هم رخ داد طوری که حالا بدون الکتریسیته نمیتوان زندگی را تصور کرد. کسانی که در مدیریت فناوری کار میکنند هم میگویند هوش مصنوعی شبیه به هیچکدام از فناوریهای تاریخ نیست و نمیتوانیم با مثلا الکتریسیته، ماشین بخار یا دستگاه چاپ مقایسهاش کنیم. حتی اگر عقبتر برویم و اختراعات پایهای را نگاه کنیم، شبیه چرخ و آتش هم نیست. پس نمیتوانیم برای تحلیل هوش مصنوعی، به فناوریهای قبل، نگاشت (ارتباطی میان اشیاء یا ساختارهای ریاضی) بزنیم.
در موارد قبل با آمدن تکنولوژی جدید، اگر 10شغل از بین میرفت، شغلهایی مساوی آن و حتی بیشتر ایجاد میشد. مثلا ماشین نساجی که آمد کارگر ابتدا بیکار اما بعدتر تبدیل به تعمیرکار یا سازننده آن شد یا از ترکیب تکنولوژی جدید با تکنولوژیهای قبلی شغلهایی شکل گرفت. بسیار میشنویم که هوش مصنوعی اگرچه شغلهای زیادی را از بین میبرد اما شغلهایی هم به وجود میآورد هرچند به نظر، مغلطه میرسد. چون تعداد بسیار کمی میتوانند در شغلهایی که بهوجود میآید مشغول به کار شوند و شاید فقط برای نسل آلفا (Generation Alpha) و لبهای جایی باشد و نه حتی برای نسل Z. یعنی حتی نسل Z هم نمیتواند از شغلهایی که هوش مصنوعی ایجاد میکند سهمی داشته باشد. چراکه فرصت تطبیق و بازآموزی برایش فراهم نشده است. درحالیکه مثلا «آیتی» اینطور نبود. از لحظهای که اولین ویرایشگر متن آمد، شغل حروفچینی هم از بین رفت اما این اتفاق یکشبه رخ نداد، دوره گذاری طی شد و شخص فرصت داشت خودش را بهروز کند. درمورد هوش مصنوعی اما اولا چنین فرصتی به کسی داده نمیشود و اصلا اینطور نیست که فکر کنید مثلا پنج سال وقت دارید که خودتان را تطبیق دهید، ثانیا تعداد شغلهایی که ایجاد میشود اصلا با تعداد شغلهایی که از بین میرود قابل مقایسه نیست و ثالثا تعداد اندکی میتوانند در فرصتهای شغلی ایجادشده مشغول به کار شوند چون باقی بهروز نشدهاند و این فرآیندی تدریجی نیست که فلان سال دیگر برایش وقت داشته باشیم. الان میتوانیم به هوش مصنوعی بگوییم برایمان به سبک اسکورسیزی یا تارکوفسکی فیلمنامه بنویس و این مهارتی است که ما هیچ وقت نمیتوانستیم داشته باشیم.
برخی معتقدند هوش مصنوعی درنهایت میتواند از دانش موجود استفاده کند و نمیتواند آن را گامی به پیش ببرد. آنها میگویند هوش مصنوعی passive است و خودش دانشی ایجاد نمیکند. برای روشنتر شدن مسئله میتوان به ساختار دانشافزایی انسان نگاه کرد. ما هنگامی که درمورد موضوعی، چه تجربی و چه ذهنی دچار ابهام هستیم ابتدا تعداد زیادی کتاب میخوانیم و سپس سر کلاس بهترین آدمهای آن حوزه مینشینم. بعد اینها را با هم جمع میکنیم و چیزی میفهمیم یا به حوزهای دیگر نگاشت میزنیم. مثلا اگر در حوزه اقتصاد کار میکنیم وقتی میبینیم کسی در حوزه روانشناسی چیزی گفته است که به کارمان میآید، دانشمان را از دو حوزه کنار هم میگذاریم و به تحلیلی درمورد روانشناسی رفتار مصرفکننده میرسیم. شکل افزایش دانش ما همچنان همین است و هرچند بهنظر خودمان activeness (فعال بودن) زیادی در آن وجود دارد اما با این الگو باز هم passive (منفعل) است.
در کیسسناریوها، ما این سو نشستهایم و هوش مصنوعی آن سو. ما از او سوال میپرسیم و او، دانش تجمیعشدهای را که خودمان احتمالا هیچوقت نمیتوانیم بخوانیم به ما ارائه میکند. فرض کنید در حوزه پزشکی، یک پزشک جراح در سال چند مقاله میتواند بخواند، اگر فرصت کند 200 مقاله اما در حوزه کاری او در سال 70 هزار مقاله منتشر میشود. خواندن و فهمیدن آن 70 هزار مقاله برای ماشین، کسری از ثانیه است و وقتی به سوالی جواب میدهد، از بهترینها منبع میآورد. حالا بهجای ما، ماشین دیگری روبهروی ماشین پاسخدهنده مینشیند و بیشتر از آن که جواب دهد، سوال میپرسد. تا جایی که تمام سوالات بشر را جمع میکند. آن زمان دانش تولید و خرد خلق میشود. چراکه این آزادی عمل به ماشین داده شده است که مثلا اقتصاد را با زیستشناسی ترکیب و به انبوهی از مدلهای جدید دست پیدا کند، کاری که انسان شاید در طول حضور یک نسل از بزرگترین دانشجویان دانشکدههای اقتصاد با صدها تز دکترا موفق به انجام آن شود.
تولید دانش برای ما یا زمانی اتفاق میافتد که کشفی انجام دهیم و قانونی را پیدا کنیم یا زمانی که آنچه را وجود ندارد بسازیم و با الهام از طبیعت چیزی خلق کنیم. هوش مصنوعی هم در کشف و هم در خلق با فاصله بهتر از انسان عمل میکند و تا اینجا، ماشینی که میخواستیم شبیه خودمان درستش کنیم تقریبا تمام ویژگیهایش بهتر از ماست. حواس، چشم و گوشش بهتر از ما و تنها مسئلهاش زبان بود که آن را هم پیدا کرد. حالا مثل انسانی است که از تمام فلاسفه بیشتر کتاب خوانده، چشمش از همهشان بهتر میبیند، گوشش از همهشان بهتر میشنود و حواسش از همهشان جمعتر است. برای همین بیکار شدن ما هم بیراه نیست و این شاید اولین موردی در تاریخ باشد که تعداد شغلهایی که توسط صنعتی ایجاد میشود از تعداد شغلهایی که از بین میرود بسیار کمتر است و شغلهای ایجادشده باز هم توسط ماشین بهتر انجام میشود.
این متن، نسخه مکتوب گفتوگوی مفصل شماره ۱۵۶ ماهنامه «مدیریت ارتباطات» با مسعود زمانی، پژوهشگر آینده فناوری است. شماره ۱۵۶ ماهنامه «مدیریت ارتباطات» را میتوانید از دیجیکالا سفارش دهید.