انسان بودن در عصر هوش مصنوعی

چه چیزی ما را در عصر هوش مصنوعی، انسانی می‌کند؟ یک روانشناس و یک متخصص فناوری به این پرسش پاسخ می‌دهند.

زمان خواندن 42 دقیقه

برایان اس. لاوری۱، به عنوان یک روانشناس اجتماعی، استاد رفتار سازمانی در دانشگاه استنفورد و یکی از بنیان‌گذاران و مدیران مشترک موسسه پیشبرد جوامع عادلانه این دانشگاه، بررسی می‌کند که چه گونه روابط و پویایی‌های اجتماعی جامعه را شکل می‌دهند. او میزبان پادکست‌های «بدانید چه می‌بینید» و «رهبری برای جامعه» است و به تازگی کتابی به نام «بدون خود۲» نوشته است که مسایلی از قبیل ماهیت هویت جنسیتی تا درک نحوه‌ی کمک دیگران به ما برای ایجاد معنا در زندگی را بررسی می‌کند. فراتر از دنیای آکادمیک، کنجکاوی لاوری او را به تجربیات زیادی از جمله یادگیری ساخت کفش با دست در مناطق روستایی سوئد یا جست‌وجوی هیجان جریان در پیست‌های موتورسواری کشانده است؛ همه این‌ها به نام یادگیری هر چه بیش‌تر از شگفتی‌های غوطه‌وری کامل است.

کیلن گیبز۳، یک متخصص فناوری و هم‌بنیان‌گذار پلتفرم Inworld است. او هوش مصنوعی را با بازی و سرگرمی ترکیب می‌کند تا دنیاها و تجربیات جذاب‌تری بسازد – با استفاده از فناوری‌های پیش‌رفته برای گسترش ظرفیت خلاقیت و تخیل انسانی. توسعه‌دهندگان بازی و سایر هنرمندان از ابزارهای او برای خلق شخصیت‌های مبتنی بر هوش مصنوعی استفاده می‌کنند که دارای عمق، واقع‌گرایی و «هوش» هستند. پیش از این، گیبز روی تحقیق در زمینه‌ی هوش مصنوعی و مدل‌های زبانی تولیدی در گوگل دیپ‌مایند۴ کار کرده بود.

هوش مصنوعی این ظرفیت را دارد که بر نحوه‌ی تعامل انسان‌ها با جهان و یکدیگر اثر بگذارد. روانشناس اجتماعی برایان اس. لاوری و متخصص فناوری۵ هوش مصنوعی کیلن گیبز به بررسی پیامدهای فناوری‌های نوظهور بر بر سلامت روانی و پویایی‌های اجتماعی مردم می‌پردازند. بشنوید که چرا گیبس به طور غیرمنتظره‌ای فکر می‌کند هر چه قدر بیش‌تر از هوش مصنوعی استفاده کنیم، کم‌تر واقعی به نظر خواهد رسید – و چگونه لاوری پیشنهاد می‌کند که نیاز ذاتی و درونی ما به ارتباط را در میان پیشرفت‌های چشم‌گیر فناوری برآورده کنیم. (این گفت‌و‌گو بخشی از «تقاطع‌های TED۶» است؛ مجموعه‌ای شامل گفت‌وگوهای الهام‌بخش بین کارشناسان که ایده‌هایی را در تقاطع تجربیات خود بررسی می‌کنند.)

چه چیزی ما را در عصر هوش مصنوعی، انسانی می‌کند؟

برایان اس. لوری: اگر بتوانید یک تجربه‌ی اجتماعی فراگیرتر ایجاد کنید، حالا همه‌ی افراد در حال تجربه اجتماعی فردی خودشان هستند. چیزی که من درباره‌ی آن نگرانم، با فناوری‌های گسترش‌یافته مانند هوش مصنوعی، واقعیت مجازی و این نوع فناوری‌ها، این است که ما همه در دنیای خودمان زندگی می‌کنیم. این برای من ترسناک‌تر از این است که همه‌ی ما در یک تجربه‌ی مشترک جمع شویم.

لوری: چه چیزی یک انسان را انسان می‌کند؟

کیلن گیبز: این یکی از آن پرسش‌ها است، نیست؟ یعنی دو روش برای نگاه به آن وجود دارد. یکی از زندگی شخصی‌ام و دیگری از زندگی کاری‌ام. یک چیز جالب این است که من زمان‌هایی چهار تا پنج ساعت در روز با هوش مصنوعی تعامل می‌کردم. چیزی که در آن جالب است این است که وقتی برای اولین بار شروع به تعامل با آن می‌کنی، متوجه می‌شوی که «اوه، این واقعا واقعی به نظر می‌رسد.» مشابه زمانی که مردم برای اولین بار تلویزیون سیاه و سفید داشتند و گفتند: «وای، این مثل زندگی واقعی است.» اما وقتی به آن عادت می‌کنی، شروع به تشخیص مواردی می‌کنی که آن را کم‌تر واقعی می‌کند. چیزی که در تعامل با هوش مصنوعی متوجه شدم این است که راه‌هایی وجود دارد که ما به صورت خودانگیخته‌تر با هم تعامل می‌کنیم. چیزی در مورد قابل پیش‌بینی بودن هوش مصنوعی به شما می‌آموزد که خودانگیختگی انسان چیست. روش‌های ارتباطی، طبیعی بودن، آگاهی از زمینه. این جزییات کوچک که همگی به هم می‌پیوندند. این از دیدگاه فنی است. از طرف دیگر، چیزی در تجربه‌ی مشترک انسانی وجود دارد که به واقع آن را از تجربه‌ی سایر حیوانات متمایز می‌کند. برای مثال شما یک لحظه بحرانی در زندگی‌تان دارید و بعد شروع به درک احساسات دیگران می‌کنید. به نظر من، هر بار که چیزی تقریبا فاجعه‌بار برایم اتفاق افتاده، دریچه‌ی جدیدی از هم‌دلی باز کرده است و سپس شروع می‌کنی به این که: «اوه، این واقعا درد داشت، می‌دانی؟» یا زمانی که برای چیزی گریه می‌کنی و می‌گویی: «وای» و سپس شروع می‌کنی به یادآوری این که چه اتفاقی برای من می‌افتد. من برای چیزی گریه می‌کنم و بعد به همه کارهایی که برای مادرم یا مادربزرگم انجام دادم و احساساتی که آن‌ها داشتند، فکر می‌کنم. به نظرم چیزی در این تجربه‌ی مشترک وجود دارد که با وجود این که ما آدم‌های متفاوتی هستیم، آن احساسات مشترک از همان جا سرچشمه می‌گیرند. به هر حال، این یک فکر بود.

لوری: من پاسخ شما را دوست دارم و باید بگویم که شما در این زمینه عادی نیستید. دلیلش این است که من فکر نمی‌کنم شما عادی باشید. مردم همه چیز را انسانی‌سازی می‌کنند. حتا لازم نیست آن چیز خیلی خوب باشد، درست است؟ حتا لازم نیست هوش مصنوعی به اندازه‌ی کافی خوب باشد تا مردم با آن مثل یک شخصیت انسانی رفتار کنند. مردم با ماشین‌هایشان هم مثل انسان رفتار می‌کنند. بنابراین من تعجب می‌کنم که وقتی شما زیاد با آن تعامل دارید، برایتان کم‌تر واقعی به نظر می‌رسد.

گیبز: چیزی در مورد وضوح تصویر وجود دارد. مثل روشی است که شما جهان را می‌بینید و وقتی وضوح را افزایش می‌دهید، این تجربه تغییر می‌کند. مثل این است که چرا حالا نمی‌توانید تلویزیونی را تماشا کنید که 4K نباشد. کسی که روی واقعیت مجازی اولیه کار کرده بود، می‌گفت نکته‌ی جالب این است که وقتی از آن خارج می‌شوید، متوجه می‌شوید که دنیای واقعی واقعا شگفت‌انگیز است و واقعا بازسازی آن در فناوری خیلی سخت است. فکر می‌کنم همین مساله برای هوش مصنوعی هم صدق می‌کند؛ شاید برای برخی افراد وقتی با آن تعامل دارند، شباهت‌هایی را می‌بینند. اما چیزی که من همیشه متوجه می‌شوم این است که این خیلی با مکالماتی که با والدینم دارم متفاوت است. حتا وقتی چیزی مشابه می‌گوید، چیزی کم دارد. آن چیزهای کوچک که به نظرم با گذشت زمان و با استفاده‌ی بیش‌تر از هوش مصنوعی، مردم شروع به شناخت آن خواهند کرد. حتا نمی‌توانم دقیقا بگویم که این تفاوت‌ها چه هستند، اما همان ظرافت‌هایی است که ما را انسان می‌کند.

لوری: شما فقط وقتی آن را می‌بینید، متوجه می‌شوید و در هوش مصنوعی آن وجود ندارد. به نظرم جالب است چون چیزی که شما به آن اشاره کردید این است که هرچه مردم بیش‌تر از هوش مصنوعی استفاده کنند، کم‌تر برای‌شان واقعی به نظر می‌رسد. فکر می‌کنید این اتفاق خواهد افتاد؟

گیبز: به نظرم ممکن است چنین حالتی هم پیش بیاید. مثل این است که فیدهای اینستاگرام و فیس‌بوک گفت‌وگوی واقعی نیستند. به طور قطع افرادی، به‌ویژه بچه‌ها، هستند که به این نوع فیدها نگاه می‌کنند و احساس می‌کنند که این نمایشی واقعی از دوستان‌شان یا افراد مشهور مورد علاقه‌شان است، در حالی که این اصلا – نمی‌خواهم بگویم کاملا – اما تا حد زیادی نادرست است. فکر می‌کنم اتفاق مشابهی برای هوش مصنوعی خواهد افتاد که برخی افراد کاملا تحت تاثیر آن قرار می‌گیرند و باور می‌کنند که این واقعی‌ترین چیزی است که وجود دارد و سپس شروع به مقایسه دیگران با آن می‌کنند. اما اگر هم‌دلی کافی داشته باشید، متوجه می‌شوید که چیزی در این میان درست نیست.

این مثل زمانی است که از تماس تصویری زوم استفاده می‌کنید؛ چیزی درست نیست. تشخیص آن سخت است، اما احساس می‌کنید که همه‌ی سیگنال‌ها را دریافت نمی‌کنید و این همان تفاوت‌های کوچکی است که احتمالا شما هم به طور نامحسوس دریافت می‌کنید.

لوری: پس فکر نمی‌کنی که فناوری به سرعت پیش‌رفت کند و این تفاوت‌های کوچک را به سرعت برطرف کند تا همه‌ی ما را تحت تاثیر قرار دهد؟ نگران این نیستی؟

گیبز: به طور قطع نگران هستم. بیش‌تر به این دلیل که فکر می‌کنم برای بیش‌تر افراد این آسان است، درست است؟ مساله در مورد هوش مصنوعی این است که دست‌کم اگر به سبک چت‌بات‌ها فکر کنید، بسیار وابسته به چیزی است که ما می‌خواهیم و این همان چیزی است که به نظرم، بسیاری از افراد در زندگی خود می‌خواهند یا نیاز دارند؛ یعنی حس کنترل. هوش مصنوعی این احساس را به شما می‌دهد که «من می‌توانم این موجود انسانی‌سازی‌شده را کنترل کنم.» و صادقانه بگویم، یکی از ترس‌های من این است که مردم به این عادت کنند. وقتی من به تعامل با چیزی عادت کنم که کاملا به دیدگاه‌ها و علایق من وابسته است، آن وقت وقتی با انسانی تعامل می‌کنم که علایق خودش را دارد؛ نتیجه چه می‌شود؟

لوری: فکر می‌کنی مردم خواهان کنترل هستند؟ من فکر می‌کنم مردم می‌خواهند کنترل شوند.

گیبز: شاید این هم نوعی کنترل باشد. این که تحت کنترل باشید هم نوعی پیش‌بینی‌پذیری است، فکر می‌کنم.

لوری: بله، مردم می‌خواهند دنیا برای‌شان قابل‌فهم باشد، نه؟

گیبز: بله، بله، فکر می‌کنم مردم هم می‌خواهند دنیا … چیزی در این مورد وجود دارد که افراد پیش‌بینی‌پذیری را به بهینگی ترجیح می‌دهند. من حتا این را وقتی که خودم یا دوستانم یک لحظه‌ی بحرانی در سلامت روانی داشته‌ایم، حس کرده‌ام. چیزی که همیشه جالب می‌دیدم این است که ذهن و مغز شما ترجیح می‌دهند در یک وضعیت آشنا باقی بمانند، حتا اگر بدتر باشد. برای مثال اگر در حالت افسردگی باشید، تقریبا ترجیح می‌دهید در همان وضعیت بمانید تا این که از آن خارج شوید، درست است؟ پس چیزی در مورد چیزهای آشنا وجود دارد که ترجیح داده می‌شوند، حتا اگر واقعا بهتر نباشند و نمی‌دانم، یک سوگیری وجود دارد که شما تقریبا با این وضعیت‌ها هم‌ذات‌پنداری می‌کنید.

لوری: بله، در این مورد تحقیقاتی وجود دارد. یکی از آن‌ها «سوگیری به وضعیت موجود» نام دارد. مردم چیزهایی را که از قبل وجود دارند، دوست دارند. دوم، مردم دوست دارند باورهایی که درباره خودشان دارند تایید شود، حتا اگر این باورها مثبت نباشند. بنابراین، این درست است. حالا این در هوش مصنوعی چه شکلی خواهد داشت؟

گیبز: برای من خیلی جالب است که مردم به نظر می‌رسد عاشق این نوع تعاملات هستند. شما با این سیستم‌ها صحبت می‌کنید و آن‌ها شبیه کامپیوتر یا هوش مصنوعی به نظر می‌رسند، اما مردم آن را دوست دارند، چون آشناست، قابل کنترل است. اگر شروع به اضافه کردن شخصیت‌های مختلف و این گونه چیزها کنید، در زمینه خاصی منطقی است، اما برایم جالب بود که وقتی شروع به توسعه‌ی این سیستم‌های هوش مصنوعی کردیم که مردم با آن‌ها تعامل دارند، همه‌ی آن‌ها نوعی صدای مشابه دارند و این یک «صدای هوش مصنوعی» است. شما تقریبا می‌توانید تشخیص دهید که با هوش مصنوعی صحبت می‌کنید. شاید این عمدی باشد. اما به نظرم چیزی در این میان هست که مردم ترجیح می‌دهند آن چه را که از انسان‌ها می‌خواهند از انسان‌ها بگیرند و آن چه را که از هوش مصنوعی می‌خواهند از هوش مصنوعی بگیرند. اما این مرز ممکن است محو شود. در حال حاضر افراد زیادی از گروه‌های خاص هستند که زمان زیادی را در اینترنت می‌گذرانند و شروع به هم‌ذات‌پنداری می‌کنند. این شکل از تعامل با مردم برای آن‌ها به محبوب‌ترین شکل تبدیل می‌شود. بنابراین فکر می‌کنم در آینده، واقعیت این خواهد بود که برخی افراد به دلایل مختلف تمایل بیش‌تری به این نوع تعاملات خواهند داشت. چه به خاطر راحتی این باشد که بدانند کسی آن‌ها را قضاوت نمی‌کند، چه به خاطر قالبی که هوش مصنوعی با آن صحبت می‌کند. این باعث می‌شود که ترجیح دهند این نوع تعاملات را بیش‌تر داشته باشند.

اما از طرف دیگر، همیشه فکر می‌کنم توزیعی از مردم وجود خواهد داشت و برخی افراد واقعا آن را دوست نخواهند داشت. همان طور که می‌گفتم، هر چه بیش‌تر با آن تعامل دارم، تقریبا برایم سخت می‌شود چون به مشکلات زیادی پی می‌برم که باعث می‌شود دیگر نتوانم از آن استفاده کنم. می‌دانید، شما فکر می‌کنید که من در حوزه هوش مصنوعی هستم و مستندات ۲۰ صفحه‌ای می‌نویسم، اما برای هیچ یک از آن‌ها از هوش مصنوعی استفاده نمی‌کنم چون آن صدا را از بین می‌برد. هم‌چنین تعجب می‌کنم که وقتی مردم بیش‌تر با آن تعامل داشته باشند، آیا آن‌ها تفاوت‌ها را تشخیص می‌دهند یا شروع به سازگاری با چیزهایی می‌کنند که هوش مصنوعی به آن‌ها آموزش می‌دهد. این همان چیزی است که وقتی با شریک زندگی‌تان تعامل دارید اتفاق می‌افتد، درست است؟ شما تحت تاثیر نحوه‌ی ارتباط او قرار می‌گیرید چون زیاد با او صحبت می‌کنید.

لوری: منظورت این است که آن‌ها در حال آموزش دادن به تو هستند؟

گیبز: آن‌ها در حال آموزش دادن به تو هستند. به احتمال زیاد شریک زندگی‌ات هم روشی ترجیحی برای ارتباط دارد. تو به آن عادت می‌کنی، این نوع چیزها. بنابراین از خودم می‌پرسم که آیا وقتی مردم بیش‌تر با هوش مصنوعی تعامل داشته باشند، همه به نوعی هم‌گرا می‌شوند؟ این احتمالا یکی از بزرگ‌ترین ترس‌های من از هوش مصنوعی است.

لوری: من دقیقا نگران عکس این موضوع هستم. کمی بحث را تغییر می‌دهم. وقتی در مورد هوش مصنوعی صحبت می‌کنیم، چیزی که تو توصیف می‌کنی، اغلب به تعاملات دوتایی مربوط است. مثل این که من با یک هوش مصنوعی یا یک عامل تعامل می‌کنم. اما در واقع، مردم با افراد مختلفی تعامل می‌کنند، درست است؟ تو در یک جامعه یا در یک گروه کوچک ارتباط داری و برایم جالب است که چرا هوش مصنوعی بیش‌تر بر این نوع تعاملات یک‌به‌یک تمرکز دارد، در حالی که مردم در دنیای واقعی با چندین نفر ارتباط دارند. تو هم‌چنین در حوزه‌ی بازی‌های ویدیویی هستی. من واقعا بازی نمی‌کنم اما می‌دانم که بسیاری از بازی‌ها درباره‌ی ارتباط با مردم و داشتن یک تجربه‌ی اجتماعی گروهی هستند. بنابراین دو نکته وجود دارد. یکی اینکه واقعا برایم جالب است که هوش مصنوعی بیش‌تر بر تعاملات یک‌به‌یک تمرکز دارد و کم‌تر بر تعاملات چندعاملی برای ایجاد یک تجربه‌ی اجتماعی فراگیرتر.

گیبز: خوشحالم که این موضوع را مطرح کردی، چون واقعا این همان کاری است که ما انجام می‌دهیم.

لوری: خوب، این یکی. نکته‌ی دیگری که مطرح هست؛ دلیل این که من کم‌تر نگران هم‌گرایی و بیش‌تر نگران واگرایی هستم این است که اگر بتوانی یک تجربه‌ی اجتماعی فراگیرتر ایجاد کنی، حالا هر کسی تجربه‌ی اجتماعی فردی خودش را خواهد داشت. چیزی که در مورد هوش مصنوعی، واقعیت مجازی و این نوع فناوری‌هایی که در حال گسترش هستند، نگران‌کننده است این است که ما می‌توانیم محیط اجتماعی و برداشت‌های فیزیکی‌مان از محیط را کنترل کنیم. این باعث می‌شود که هر کدام از ما در دنیای فردی خودمان زندگی کنیم. این برای من ترسناک‌تر از آن است که همه در یک تجربه‌ی مشترک هم‌گرا شویم.

گیبز: خب، مادرم معلم کلاس هفتم است و یکی از چیزهایی که او می‌گوید خیلی جالب است؛ این که اگر به حدود ۲۰ سال پیش برگردی، همه یک برنامه‌ی تلویزیونی مشابه را تماشا می‌کردند و وقتی به کلاس می‌آمدند، همه در مورد آن صحبت می‌کردند. اما حالا هر کسی کانال یوتیوب مورد علاقه‌ی خودش را تماشا می‌کند. این همان جدا شدن از واقعیت است.

برای مثال کاری که ما در بازی‌ها انجام می‌دهیم؛ یکی از چیزهای جالب این است که وقتی مردم بازی می‌کنند، تقریبا شبیه به همان چیزی است که تو گفتی. ممکن است یک میلیون نفر بازی کنند و تفاوت‌هایی وجود داشته باشد اما در مجموع به نقاط مشابهی خواهند رسید. بنابراین یکی از چیزهایی که به آن فکر می‌کنیم این است که این برای حس عاملیت به چه معناست؟ نحوه‌ی تعامل ما با رسانه‌ها، احساس ما از عاملیت در دنیا را تغییر می‌دهد. اگر با رسانه‌ای ثابت روبه‌رو شویم که نتوانیم آن را تغییر دهیم به ما این حس را می‌دهد که نمی‌توانیم دنیا را تغییر دهیم. به همین خاطر، یکی از چیزهایی که در بازی‌ها می‌خواهیم انجام دهیم این است که هر فرد واقعا بتواند بر نتیجه تاثیر بگذارد و وقتی عوامل بیش‌تری به آن اضافه می‌شوند، می‌بینی که من با این عامل تعامل می‌کنم و این تاثیر دومینویی دارد. من این را دوست دارم. حتا در برخی از کارهایی که این جا انجام داده‌ایم، جادو واقعا وقتی اتفاق می‌افتد که این عوامل با هم تعامل می‌کنند، زیرا در این صورت تنها شاهد تعامل یک‌به‌یک نیستی بلکه اثرات ناشی از آن تعامل را هم می‌بینی. چیز دیگری که وجود دارد این است که اگر اصلی‌ترین کنترل‌های تو در رایانه فقط اشاره و کلیک یا در بازی‌ها، پریدن و شلیک کردن باشد، ما در تلاشیم ببینیم اگر مهارت‌های اجتماعی مانند تعامل به روشی مانند نحوه‌ی تعامل با بازی‌ها، فناوری و عوامل باشد، این چه معنایی خواهد داشت. این نسبت به فشار دادن دکمه‌ها، روش بسیار متفاوتی برای مکالمه یا گفت‌وگو است. فکر می‌کنم این نحوه‌ی احساس افراد نسبت به عوامل در جهان را تغییر می‌دهد. چون فکر می‌کنم بیش‌تر مردم دنیا را با صحبت کردن و تعامل با انسان‌های دیگر تغییر می‌دهند، نه با فشار دادن دکمه‌ها. البته، شاید در برخی موارد این طور نباشد.

لوری: می‌دانی، یکی دیگر از چیزهایی که برای من جالب است این است که فکر نمی‌کنم مردم فهم درستی از سیستم‌هایی که در آن‌ها وجود دارند، داشته باشند. مردم فکر می‌کنند که در روابط فردی قرار دارند و درک سیستماتیک آن‌ها سخت‌تر است؛ مثل این که من روی تو تاثیر می‌گذارم، تو روی شریک زندگی‌ات اثر می‌گذاری و او هم روی والدینش؛ درست است؟ این یک مفهوم دشوارتر است. اما فکر می‌کنم چیزی اساسی و انسانی در این موضوع وجود دارد. مثل این که تو هم از تمام این چیزهای مختلف که در جریان هستند تاثیر می‌گیری. برای مثال ما یک نفر را داشتیم که گریم ما را انجام داد و حالا من زیبا به نظر می‌رسم و این روی همه اطرافیانم تاثیر می‌گذارد.

گیبز: این جالب توجه است!

لوری: دقیقا. چه طور این موضوع جای خودش را پیدا می‌کند؟ برای من عجیب است که کسی درباره‌ی آن به این شکل صحبت نمی‌کند، چون فکر می‌کنم این چیزی است که انسان‌ها را به طور اساسی انسانی می‌کند. تعامل و موقعیت‌های اجتماعی پیچیده.

گیبز: و این سیستم‌های تو در تو و این که همه‌ی آن‌ها بر یکدیگر اثرمی‌گذارند، درست است؟ فکر می‌کنی که فعالیت کوچک تو بر مسایل سیاسی کلان تاثیری ندارد، اما همه چیز در مجموع اثرگذار و به هم پیوسته است.

منظورم این است که موضوع هوش مصنوعی هم جالب است، چون اغلب می‌شنوم که مردم درباره‌ی آن به عنوان یک تکامل صحبت می‌کنند. برای مثال از سلول‌های تک‌سلولی به میمون‌ها، به انسان‌ها، به هوش مصنوعی. در حالی که می‌توان این را برعکس کرد و گفت: از سلول‌ها به اندام‌ها، به انسان و به هوش مصنوعی. این یک سیستم فراگیر است، چون بر اساس ما آموزش داده شده و ما این کارها را انجام می‌دهیم. ما بر آن سیستم اثر می‌گذاریم و حالا که مردم با آن تعامل دارند؛ این تعامل دوطرفه است. این هم جالب است، هوش مصنوعی به یک موجودیت منفرد تبدیل نمی‌شود، بلکه بیش‌تر شبیه یک نهاد یا سیستم است که همه‌ی چیزهای دیگر را فرا گرفته است.

لوری: و عجیب هم است، چون این مانند تصویری است که از خود داریم. وقتی درباره‌ی هوش مصنوعی عمومی (AGI) صحبت می‌کنیم، انگار که حتا نمی‌دانیم هوش چیست و فکر می‌کنیم چیزی تولید می‌کنیم که آن را دارد. این واقعا موقعیت جالبی است که دربار‌یه آن صحبت می‌کنیم. همان طور که تو گفتی، انگار تکامل طبیعی است اما در واقع ما داریم آن را خلق می‌کنیم و روشن نیست که آیا دقیقا می‌دانیم چه چیزی را خلق می‌کنیم؟

گیبز: من در واقع فکر می‌کنم که یکی از جالب‌ترین چیزها این است که ما در حال کار روی هوش مصنوعی در زمانی هستیم که هنوز در حال کشف خودمان هستیم. علوم اعصاب هنوز در مراحل ابتدایی خود است و با این حال ما چیزهایی را خلق می‌کنیم که بر اساس هوش خودمان است، در حالی که حتی واقعا نمی‌فهمیم درون‌مان چه می‌گذرد. بنابراین در رابطه با اثرات آن، ما هنوز واقعا نمی‌دانیم. هر سال مقاله‌ی جدیدی منتشر می‌شود و دیدگاه مردم درباره‌ی تربیت کودکان را تغییر می‌دهد. مثل این که چه گونه یک کودک را به خوبی تربیت کنیم و از این دست مسایل و حالا داریم سیستم‌هایی خلق می‌کنیم که به نوعی دیگر انسان‌ها را فرا می‌گیرند. معنای آن چیست، نمی‌دانم.

در واقع فکر می‌کنم، من به صورت تصادفی در هوش مصنوعی کار می‌کنم و ما به طور تصادفی در این مقطع زمانی قرار داریم. اما اگر بتوانیم یک لحظه مکث کنیم، فکر می‌کنم خوب است که چند قرن دیگر به خودمان زمان بدهیم تا بهتر بفهمیم که چه کسی هستیم و آن را کمی بهتر درک کنیم، پیش از این که چیزی خلق کنیم که شبیه ما باشد. چون این شبیه گرفتن یک عکس و سپس نقاشی کردن آن است، درست است؟ تو در واقع خود شخص را نمی‌گیری و نقاشی نمی‌کنی. چیزی درباره‌ی زندگی وجود دارد که در آن جا گم شده است. پس من هم موافقم. فکر می‌کنم ما صادقانه خیلی زود وارد این ماجرا شده‌ایم، اما فکر می‌کنم این همان نحوه‌ی کار جهان است که چیزها زمانی بیرون می‌آیند که به طور طبیعی باید بیرون بیایند.

لوری: خب، تو در زمینه‌ی هوش مصنوعی کار می‌کنی، پس هیجان‌انگیزترین چیز برای تو در هوش مصنوعی چیست؟ چه امیدی به آن داری؟

گیبز: فکر می‌کنم این دوباره به همان مساله‌ی اختیار برمی‌گردد. به عنوان مثال، تو یک خبر می‌خوانی، یک کتاب می‌خوانی، یک فیلم تماشا می‌کنی، یک برنامه‌ی تلویزیونی می‌بینی. این مخصوص به حوزه‌ی کاری من است، مثلا در ارتباطی که همین حالا با هم داریم، من به چیزهایی که می‌گویی، زبان بدنت و همه‌ی این چیزها واکنش نشان می‌دهم، درست است؟ به افرادی که در اتاق هستند، به همه‌ی این موارد و وقتی هوش مصنوعی بتواند به نوعی به این تطبیق کمک کند تا تو در چیزهایی که با آن‌ها تعامل داری اختیار داشته باشی، این خیلی جالب است.

من لزوما به رسانه‌های کاملا شخصی‌سازی‌شده اعتقادی ندارم چون فکر می‌کنم ما به یک زمینه‌ی اجتماعی مشترک نیاز داریم. دلیل این که ما یک فیلم یا برنامه تلویزیونی تماشا می‌کنیم این است که بعدا بتوانیم درباره‌ی آن با هم صحبت کنیم، درست است؟ اما یک نکته‌ای وجود دارد درباره‌ی این که همه‌ی ما با این اشیاء اینترنتی در حال تعامل هستیم و فناوری به این شکل است که وقتی پشت یک صفحه نمایش هستی، تغییری نمی‌کند. وقتی در حال تماشای فیلم هستی، تغییری نمی‌کند. وقتی نتفلیکس تماشا می‌کنی، بر اساس کارهایی که انجام می‌دهی تغییری نمی‌کند و فکر می‌کنم این بر نحوه‌ای که اختیار خودمان را در جهان می‌بینیم اثر می‌گذارد. پس امیدوارم یکی از چیزهایی که هوش مصنوعی انجام می‌دهد این باشد که در تعامل با رسانه‌ها و فناوری به طور کلی، دری به روی اختیار باز کند، به شکلی که ما متوجه شویم تاثیری بر سیستم‌ها داریم. حتا اگر این تاثیر کوچک باشد، وقتی یک عمل خاص انجام می‌دهم و آن کاملا یک برنامه یا تجربه را تغییر می‌دهد، شاید این به ما کمک کند یاد بگیریم که در سیستم‌های اجتماعی هم تاثیر داریم. چیزی شبیه به این.

لوری: پس تو می‌خواهی اختیار ما شفاف‌تر شود. فکر می‌کنی هوش مصنوعی این کار را انجام می‌دهد؟ چون در حال حاضر مطمئن نیستم که اختیار ما را مبهم نمی‌کند.

گیبز: نه، من دقیق نمی‌دانم. موافقم. به همین دلیل است که فکر می‌کنم رسانه و بازی‌ها، حوزه‌هایی هستند که بیش‌تر روی آن‌ها تمرکز دارم. به ویژه به این دلیل که جوانان زیاد از آن‌ها استفاده می‌کنند. از توسعه‌دهندگان بازی با تجربه شنیده‌ام که نحوه‌ی تعامل افراد با بازی‌ها، به‌نوعی به کودکان آموزش می‌دهد که چه گونه باید با جهان تعامل داشته باشند. حتا افرادی که به صورت حرفه‌ای در بازی‌های مختلف فعالیت می‌کنند، پروفایل‌های روان‌شناختی متفاوتی دارند زیرا به شیوه‌های خاصی برای تعامل و دیدن جهان تمایل دارند. دقیقا مثل این که اگر در زمینه‌ای آکادمیک آموزش دیده باشی، به شیوه‌ای متفاوت آن را می‌بینی و اگر بازی‌ها و رسانه‌ها را به شکلی بسازیم که احساس تاثیر اجتماعی نیز داشته باشی، شاید دریچه‌ای به سوی نوعی درک جدید باز شود. اما بله، موافقم که بسیاری از سیستم‌های امروز شاید به تو احساس کاذبی از اختیار بدهند، مثل همان سیستم‌های هوش مصنوعی که درباره‌شان صحبت می‌کردیم. جایی که واقعا احساس می‌کنی آن را کنترل می‌کنی، در حالی که شاید در عین حال آن سیستم‌ها هم به نوعی بر تو اثر می‌گذارند و تو را «کنترل» می‌کنند.

لوری: به نظرت اوضاع به کجا می‌رود؟ خب، بدیهی است که رقابت بزرگی بین سازمان‌های بسیار قدرتمند بر سر هوش مصنوعی در جریان است، درست است؟ می‌دانی، مایکروسافت و گوگل شاید بزرگ‌ترین‌ها هستند و خیلی سریع باید به فکر درآمدزایی از آن باشند چون این همان چیزی است که این شرکت‌ها برای آن طراحی شده‌اند. به نظرت چه اتفاقی می‌افتد؟ چون وقتی به شبکه‌های اجتماعی نگاه می‌کنم، فکر می‌کنم در زمان آغاز به کارشان، مردم خیلی هیجان‌زده بودند، به عنوان یک راه جدید برای ارتباط با دیگران و حفظ ارتباط با افرادی که در شرایط دیگر نمی‌توانستند با آن‌ها در تماس باشند؛ مثل پیدا کردن دوباره‌ی دوستان قدیمی. اما به مرور زمان به چیزی دیگر تبدیل شد، بیش‌تر به‌خاطر شیوه‌ای که از آن درآمدزایی شد، مثل تمرکز بر تبلیغات و جلب توجه. مسیر هوش مصنوعی به کجا خواهد رفت؟

گیبز: می‌دانید، من دارم حدس می‌زنم.

لوری: بله، البته، همه ما داریم حدس می‌زنیم. من تو را مسئول این حدس‌ها نخواهم دانست، نگران نباش.

گیبز: فکر می‌کنم واقعیت این است که ما پیش‌تر درباره‌ی چالش‌های مقیاس صحبت می‌کردیم. وقتی شما ده‌ها میلیارد دلار در چیزی سرمایه‌گذاری می‌کنید، به مقیاس نیاز دارید. فکر می‌کنم یکی از جنبه‌ها — به ویژه نوع مدل‌هایی که استفاده می‌کنیم و مدل اقتصادی آن، به این شکل است که به طور اثربخش هر چه محاسبات بیش‌تری داشته باشید، مدل‌های بهتری می‌توانید ایجاد کنید. هرچه مدل‌های بهتری بسازید، استفاده‌ی بیش‌تری خواهید داشت و هرچه استفاده‌ی بیشتری داشته باشید، بهتر می‌شود. بنابراین به نوعی واقعا تمایل به انحصار پیدا می‌کند، فکر می‌کنم، در شیوه‌ای که حتا معماری‌ها و اقتصاد آن کار می‌کند. به همین دلیل، تقریبا اجتناب‌ناپذیر است که هر سیستم هوش مصنوعی که توسط این سازمان‌های بزرگ تولید می‌شود، به سرعت به مقیاس برسد. در این جا چند مزیت وجود دارد، مانند این که مطمئنا آن‌ها در حال ایجاد حلقه‌های بازخورد هستند؛ مردم می‌توانند نظرات خود را بدهند و این به تعصب سیستم کمک می‌کند. اما هم‌زمان، چه معنایی دارد وقتی یک مدل برای یک میلیارد نفر تنظیم می‌شود؟ این همان چیزی است که من درباره‌ی اثر هم‌گرایی منظور داشتم؛ وقتی مجبور شویم چیزی را تولید کنیم که برای یک میلیارد نفر مناسب باشد چه اتفاقی می‌افتد؟ در آن جا تنوع زیادی وجود دارد. بنابراین، ما این سیستم‌های مقیاس‌پذیر را ایجاد می‌کنیم که سعی می‌کنند با کل جهان سازگار شوند. آیا این کار می‌کند؟ بنابراین فکر می‌کنم، ما از این مرحله عبور خواهیم کرد که بله، شما یک میلیارد نفر خواهید داشت که با همان هوش مصنوعی تعامل دارند و نمی‌دانم اثر آن چه خواهد بود. حتا مدل‌های درآمدزایی اکنون به این شکل هستند که شما برای استفاده از این چیزها هزینه می‌پردازید، که شاید خوب باشد، اما مطمئنا تبلیغات به احتمال زیاد وارد معادله خواهد شد. هم‌چنین، چه اتفاقی می‌افتد وقتی می‌خواهید توجه جلب کنید و هوش مصنوعی در این زمینه بهتر از الگوریتم‌هایی است که حتا در یوتیوب و اینستاگرام دارید. شما می‌توانید شروع به جذب آن توجه کنید. بنابراین به طور قطع فکر می‌کنم در این جا کمی جالب خواهد بود، چون می‌بینیم که این سازمان‌های بزرگ ده‌ها میلیارد دلار هزینه می‌کنند و انتخاب‌هایی برای درآمدزایی انجام می‌دهند و این چه معنایی برای گسترش هوش مصنوعی خواهد داشت. من خیلی از افرادی که در این سازمان‌ها هستند را می‌شناسم و علایق آن‌ها هرگز در این حوزه نبوده است. اما در عین حال، شما وابسته به منافع بازار سهام و هر چیزی که باشد، هستید، پس چه اتفاقی می‌افتد؟ این موضوع را تغییر می‌دهد، درست است؟ ما در یک دنیای سرمایه‌داری هستیم و این به نوعی مانند این است که، می‌دانید، چه چیزی در نهایت انگیزه‌ها را تغییر خواهد داد. بنابراین بله، جالب است.

من به عنوان کسی که از پیشینه‌ی شما آمده‌ام، به این موضوع بسیار متفاوت نگاه می‌کنم. اما، می‌دانید، همه‌ی این مسایل هوش مصنوعی جالب است. اما وقتی به پرسش اول شما فکر می‌کنم، چه چیزی ما را انسانی می‌کند و به عنوان انسان‌ها، به‌طور کلی فناوری و به ویژه با هوش مصنوعی، مردم کجا می‌توانند معنای زندگی خود را پیدا کنند، ارزشی که آن‌ها حقیقت می‌دانند؟ و فکر می‌کنید با ورود این فناوری‌های جدید، آن چه گونه تغییر خواهد کرد؟ یا شما چه گونه تغییر آن را با فناوری‌هایی که پیش‌تر به وجود آمده‌اند، دیده‌اید؟

لوری: این ممکن است پاسخ عجیبی به نظر برسد. من فکر می‌کنم مردم خیلی درباره‌ی فناوری نگران هستند. به شخصه، فکر می‌کنم ما از زمانی که انسان بوده‌ایم، از فناوری استفاده کرده‌ایم. بنابراین کاغذ اختراع بزرگی بود. درباره‌اش صحبت کردیم. چاپ‌خانه، اختراع بزرگی بود. رایانه، اختراع بزرگی بود. اینترنت، اختراع بزرگی بود. هوش مصنوعی، عالی، یک اختراع بزرگ دیگر. در تمام این موارد، آن چه که در بسیاری از بزرگ‌ترین فناوری‌ها می‌بینید، تمایل به ارتباط با دیگر انسان‌ها است. فکر می‌کنم آن چه ما را به طور بنیادین انسانی می‌کند، ارتباط ما با دیگر انسان‌ها، توانایی ما در تعامل با دیگران و مانند آگاهی و همه‌ی این چیزهای دیگر پیش‌نیازهای ضروری هستند. اما به واقع آن چه ما را انسانی می‌کند، ارتباطات با دیگر انسان‌ها است و این بسیار پیچیده است. فکر نمی‌کنم ما از نظر فناوری به توانایی تکرار آن نزدیک باشیم. حتا چیزی که تو توصیف کردی این احساس را ایجاد می‌کند که این درست نیست، این نامناسب است. حتا اگر احساس کنی که درست است، هنوز هم به گونه‌ای نامناسب خواهد بود که درست متوجه نمی‌شوی. فکر نمی‌کنم به این نزدیک باشیم.

با این حال، چون طراحی شده تا توجه ما را از چیزهای دیگر منحرف کند، فکر می‌کنم این موضوع توانایی ما برای انجام آن چه که همه‌ی ما می‌خواهیم، یعنی تعامل با یکدیگر، را مختل می‌کند. ممکن است روش‌های تعامل ما را تغییر دهد به گونه‌ای که احساس کم‌تری از رضایت را به همراه داشته باشد. فکر می‌کنم برخی از این موارد را در تعاملات اجتماعی حال حاضر می‌بینید. برخی از این‌ها، به ویژه به تازگی، شاید به خاطر کووید بوده است. اما مردم در تعاملات حضوری کم‌تر احساس راحتی می‌کنند. مثل این که در قرارهای ملاقات، هیچ تصادفی وجود ندارد که با کسانی که ملاقات می‌کنید. این مانند این است که شما از الگوریتمی استفاده می‌کنید تا گزینه‌هایی را به شما ارایه دهد. این یک دنیای بسیار متفاوت است. حتا این قبل از هوش مصنوعی هم هست. نمی‌دانم هوش مصنوعی چه گونه می‌تواند این را بیشتر تحت تاثیر قرار دهد.

گیبز: و من حدس می‌زنم که حتا درباره‌ی نکته‌ی کلی، چه قدر فکر می‌کنید نیاز به ارتباط بنیادین است به این معنا که، می‌دانید، من شنیده‌ام برخی والدین بگویند که از طریق کووید، فرزندان‌شان دچار تغییرات بزرگی شدند، می‌دانید، این پس‌رفت‌ها، عادات متفاوت و این نوع چیزها به خاطر این که با مردم ارتباط نداشتند و سال‌ها طول کشید تا بر آن غلبه کنند. بنابراین هم‌چنین می‌پرسم که آیا از طریق فناوری یا چیزهایی مانند کووید یا فقط شرایط، آیا ممکن است نیاز به ارتباط را از دست بدهیم؟ یا حتا اگر به آن نیاز داشته باشیم، ممکن است تمایل به آن را از دست بدهیم و به عنوان نتیجه، آسیب عاطفی احساس کنیم، اما هم‌چنان به آن نپردازیم. چه قدر فکر می‌کنید این بنیادین است؟ و آیا فکر می‌کنید در این نوع نیاز ایمن هستیم؟

لوری: بنابراین، من می‌خواهم به شما محکم‌ترین پاسخ را بدهم که فکر می‌کنم درست است. شما اگر نیازی به ارتباط انسانی نداشته باشید، دیگر انسان نخواهید بود. مانند این است که شما یک شخص فیزیکی خواهید بود، اما به طور واقعی به عنوان یک انسان نابود خواهید شد. به همین دلیل است که — انزوا یا حبس انفرادی غیرانسانی به حساب می‌آید. زیرا افراد به‌طور واقعی نابود می‌شوند و شما شروع به دیدن توهمات خواهید کرد. شما از نظر ذهنی و جسمی در غیاب ارتباط انسانی فرو می‌پاشید. بنابراین به نظر من هیچ گونه احتمالی برای از دست دادن این نیاز وجود ندارد. ممکن است کم‌تر از آن چه نیاز دارید را دریافت کنید و این برای شما پیامدهای منفی خواهد داشت. اما نگران این نیستم که مردم نخواهند در کنار دیگران باشند.

گیبز: آیا نگران هستید که چیزهایی مانند رسانه‌های اجتماعی یا هوش مصنوعی یا هر یک از این موارد می‌تواند به شما این احساس را بدهد که نیازتان را برآورده می‌کنید، اما در واقع آن را برآورده نمی‌کند؟ این کاملا درست است، درست است؟ حبس انفرادی مثال عالی است، زیرا ما به آن نیاز داریم. ما به طور قطع عقل خود را از دست می‌دهیم و هم‌چنین، می‌دانید، سلامت خود را. اما شاید بتوانیم، می‌دانید، فناوری می‌تواند احساسی ایجاد کند که ما این نیاز را برآورده می‌کنیم. سپس با گذشت زمان، می‌بینیم که این بحران‌های سلامت روان به عنوان نتیجه‌ای از آن تکامل می‌یابند؟

لوری: بله، این پرسش خوبی است. فکر می‌کنم بعید است، اما نمی‌دانم. صادقانه بگویم نمی‌دانم. اجازه دهید یک لحظه درباره‌ی معنا صحبت کنم. فکر می‌کنم این موضوع به طور بنیادی با نیاز ما به ارتباط با دیگران مرتبط است. فکر می‌کنم گاهی اوقات نیازمان به معنا را با تمایل به دستاوردهای شخصی اشتباه می‌گیریم. ما به دنبال دستاوردهای شخصی هستیم و آن چه که سعی می‌کنیم انجام دهیم تولید معنا است. بنابراین فکر می‌کنم ممکن است دچار سردرگمی شویم و این نیازهای‌مان به مسیرهای کم‌ثمرتر منحرف شوند. اما فکر نمی‌کنم که این نیاز از بین برود. اما، می‌دانید، نمی‌دانم که آیا این سالم‌ترین است.

گیبز: نه، من کاملا با شما موافق هستم. ممنون، برایان، این گفت‌وگو فوق‌العاده بود.

لوری: صحبت با شما عالی بود. واقعا فوق‌العاده و بسیار آموزنده بود. ممنون.

  1. Brian S. Lowery ↩︎
  2. Selfless: The Social Creation of “You” – Amazon ↩︎
  3. Kylan Gibbs ↩︎
  4. Google DeepMind ↩︎
  5. Technologist ↩︎
  6. TED Intersections ↩︎

این مطلب را به اشتراک بگذارید