فناوری جدید به دنبال تغییر فرآیند شناختی انسان است. از زمان اختراع صنعت چاپ تاکنون فرآیند شناختی ما متزلزل نشده بود. فناوری چاپ کتاب گوتنبرگ در سال 1455 میلادی باعث شد تا افکار انتزاعی بشر به طور کلی و سریع قابل انتقال باشند. با وجود این ، امروزه فناوری تازه این روند را معکوس ساخته است. باوجود آنکه ماشین چاپ باعث خلق انبوهی از تفکر مدرن بشری شد، فناوری تازه نیز تحولی عظیم محسوب می شود. در این فرآیند شکافی بین دانش انسان و درک انسان ایجاد می شود. اگر بخواهیم این دگرگونی را با موفقیت پشت سر بگذاریم باید مفاهیم جدیدی از تفکر انسان و تعامل با ماشین ها ایجاد شود. این چالش اساسی عصر هوش مصنوعی خواهد بود.
فناوری جدید به عنوان هوش مصنوعی مولد شناخته می شود. چت جی پی تی (Chat GPT) که در آزمایشگاه تحقیقاتی Open AI توسعه یافته اکنون قادر به مکالمه با انسان است. این برنامه با گسترده تر شدن ظرفیت ها دانش بشری را بازتعریف می کند، تعییرات در ساختار واقعیت ما را تسریع و سیاست و جامعه را دوباره سازماندهی می کند. هوش مصنوعی مولد چالش فلسفی و عملی در مقیاسی است که از زمان آغاز عصر روشنگری به این سو تجربه نشده است. چاپخانه و چاپ آثار پژوهشگران را قادر ساخت تا یافته های یکدیگر را به سرعت تکرار کرده و آن یافته ها را به اشتراک بگذارند. همچنین، باعث ادغام و گسترش بی سابقه اطلاعات و ایجاد روشی علمی شد. آنچه پیش تر غیر قابل نفوذ بود به نقطه آغاز تسریع پرس و جو تبدیل شد. تفسیر قرون وسطایی از جهان به تدریج تضعیف شد. این امکان فراهم شد تا اعماق کیهان تا زمانی که به محدودیت های جدیدی از درک بشر رسیدند مورد کاوش قرار گیرند.
هوش مصنوعی به طور مشابه مولد راه های انقلابی برای خرد انسانی است و افق های تازه ای را برای دانش یکپارچه خواهد گشود. با وجود این ، قطعا تفاوت هایی نیز وجود دارد. دانش عصر روشنگری به تدریج، گام به گام، با هر مرحله قابل آزمایش و آموزش حاصل شد. سیستم های مجهز به هوش مصنوعی از انتهای دیگری آغاز می شوند. سیستم های مبتنی بر هوش مصنوعی می توانند حجم عظیمی از اطلاعات را ذخیره کنند. در مورد Chat GPT این مورد بسیاری از مطالب متنی در اینترنت و تعداد زیادی از کتاب ها را شامل می شود. نگهداری آن حجم از اطلاعات و عرضه آن فراتر از توان انسان است. روش های پیشرفته هوش مصنوعی بدون توضیح اینکه چرا یا چگونه فرآیندشان کار می کند نتایجی را به دست می آورند.
ماشین یادگیری مبتنی بر هوش مصنوعی ظرف مدت چند ثانیه به یک متن پاسخ می دهد و قادر است این کار را انجام دهد، زیرا فرآیند را از طریق داده های گسترده ای که از پیش تولید کرده و بر اساس آن آموزش دیده انجام می دهد. البته اینکه ماشین یادگیری با استفاده از چه فرآیندی دانش خود را ذخیره و بازیابی می کند، ناشناخته باقی مانده است. اینکه آیا این فرآیند هرگز کشف خواهد شد یا خیر رمز و راز مرتبط با فراگیری یادگیری ماشینی و شناخت انسان را برای آینده نامعلومی به چالش خواهد کشید. ظرفیت های هوش مصنوعی ثابت نیستند، اما با پیشرفت فناوری به طور تصاعدی گسترش می یابند. به تازگی پیچیدگی مدل های هوش مصنوعی هر چند ماه یک بار به میزان دو برابر افزایش یافته است. بنابراین، سیستم های مبتنی بر هوش مصنوعی مولد از قابلیت هایی برخوردارند که حتی برای مخترعان شان نیز فاش نشده است.
با هر سیستم مبتنی بر هوش مصنوعی تازه آن سیستم بدون آنکه مبدا یا مقصد خود را بداند ظرفیت های تازه ای را ایجاد می کند. در نتیجه، آینده ما اکنون دارای یک عنصر کاملا جدید از رمز و راز و ریسک و شگفتی است. علم عصر روشنگری یقینات را انباشته ساخت. هوش مصنوعی ابهامات تجمعی را ایجاد می کند. علم عصر روشنگری با قابل توضیح ساختن اسرار و مشخص ساختن مرز های دانش و درک بشر در حین حرکت آن تکامل یافت. در دانش عصر روشنگری فرضیه فهم آماده تبدیل شدن به دانش بود. استقرار تبدیل دانش به فهم بود. در عصر هوش مصنوعی، اما معما ها با فرآیند هایی حل می شوند که ناشناخته باقی می مانند.
این تناقض سرگردان کشف اسرار را ناممکن و غیر قابل توضیح می سازد. هوش مصنوعی ذاتا به شکلی بسیار پیچیده دانش بشری را افزایش می دهد، اما لزوما باعث افزایش درک انسان نمی شود و پدیده ای است که تقریبا برخلاف تمام پدیده های مدرنیته از دوران عصر روشنگری به این سو است. با وجود این ، در عین حال زمانی که هوش مصنوعی با خرد انسانی همراه می شود ابزاری قوی تر از صرف خرد انسانی برای کشف است. بنابراین، تفاوت اساسی بین عصر روشنگری و عصر هوش مصنوعی نه از جنبه فناوری بلکه از جنبه شناختی است. پس از عصر روشنگری فلسفه با علم همراه شد. داده های گیج کننده جدید و نتیجه گیری های غالبا غیرمنطقی، تردید ها و ناامنی ها با توضیحات جامع تجربیات بشری برطرف شدند. هوش مصنوعی مولد به طور مشابه آماده است تا شکل جدیدی از آگاهی انسان را ایجاد کند. با وجود این ، هنوز هیچ رهبری سیاسی یا فلسفی ای برای توضیح و هدایت این رابطه بدیع بین انسان و ماشین شکل نگرفته است.
«چت جی پی تی» (Chat GPT) نمونه ای از آن چیزی است که به عنوان یک «مدل زبان بزرگ» شناخته می شود که می تواند برای تولید متنی شبیه متن های تولیدشده توسط انسان استفاده شود. این برنامه نوعی مدل است که می تواند به طور خودکار از مقادیر زیادی متن و بدون نیاز به نظارت انسان بیاموزد. توسعه دهندگان Chat GPT آن را با مقدار زیادی از محتوای متنی دنیای دیجیتال تغذیه کرده اند. قدرت محاسباتی به این مدل اجازه می دهد تا الگو ها را ثبت کند.
توانایی مدل های زبان بزرگ برای تولید متن انسان مانند یک کشف تقریبا تصادفی بود. این مدل ها به گونه ای آموزش داده شده اند که بتوانند کلمه بعدی را در یک جمله پیش بینی کنند که در کار هایی مانند تکمیل خودکار برای ارسال پیام های متنی یا جست وجو در وب مفید است. با وجود این ، مشخص شده که این مدل ها همچنین توانایی غیر منتظره ای برای ایجاد پاراگراف ها و تولید مقاله و کتاب دارند. چت جی پی تی به صورت فوری پاسخ های منحصر به فردی ارائه می کند. پاسخ ها، اظهارات و مشاهدات از سوی چت جی پی تی بدون توضیح درباره اینکه از کجا آمده اند و بدون نویسنده قابل شناسایی ظاهر می شوند. در ظاهر این برنامه انگیزه یا سوگیری قابل تشخیصی ندارد. خروجی های آن پیچیده است، اما کار آن به طرز شگفت آوری سریع است: ظرف مدت چند ثانیه می تواند پاسخ هایی تولید کند که به طور منسجم یک موضوع سطح بالا را توضیح دهد.
این پاسخ ها به سادگی از متن موجود در حافظه رایانه نسخه برداری نمی شوند بلکه توسط فرآیندی بازتولید می شوند که انسان قادر به تکرار آن نیست و قادر است استنتاج های روان شناختی فرضی و غیر بدیهی را با یکدیگر ترکیب کند. این برنامه قادر است از میان میلیارد ها نقطه داده اولویت بندی کند تا مجموعه ای از 200 کلمه را انتخاب کند که بیشترین ارتباط را با یکدیگر دارند. به نظر می رسد این برنامه دیدگاه های مخالف را می پذیرد و آن دیدگاه ها را همزمان با یکدیگر سازگار نشان می دهد. چت جی پی تی نوشته های دیگر را بدون کپی کردن یا نسخه برداری تقلید می کند. اگرچه این مدل قادر به درک مفهوم انسانی نیست، اما خروجی آن بازتاب دهنده جوهر زیر بنایی زبان انسانی است. من از چت جی پی تی خواستم تا قابلیت های خود را توضیح دهد.
از آن پرسیدم آیا می تواند آینده را پیش بینی کند و پاسخ منفی داد. چت جی پی تی پاسخ داد: «من صرفا می توانم اطلاعاتی را ارائه کنم و به پرسش ها بر اساس داده هایی که آموزش دیده ام پاسخ دهم. من تجربه یا آگاهی شخصی ندارم. بنابراین، نمی توانم در مورد رویداد های آینده پیش بینی ای انجام دهم.» از آن برنامه پرسیدم آیا قادر به «قضاوت احتمالی» است و پاسخ داد: «من می توانم قضاوت های احتمالی را بر اساس داده هایی که با تکیه بر آن آموزش دیده ام ارائه دهم. برای مثال، اگر روی مجموعه داده بزرگی از الگو های آب و هوا آموزش دیده باشم ممکن است بتوانم یک قضاوت احتمالی در مورد احتمال وقوع نوع خاصی از آب و هوا در یک مکان خاص در یک روز معین ارائه کنم. با وجود این ، توجه به این نکته ضروری است که این قضاوت های احتمالی مبتنی بر الگو ها و روند های داده ها هستند و ممکن است همواره نتایج واقعی را به طور دقیق بازتاب ندهند.»
من از چت جی پی تی درباره نقش روسیه در حفظ یا تضعیف ثبات اروپا پرسیدم. پاسخ های به ظاهر متفکرانه و مختصر در کمتر از یک دقیقه ارائه شد و اطلاعات متناقض را متعادل کرده بود و بدون اینکه نظری داشته باشد به طور کامل پاسخ می داد. ظرف مدت چند روز پس از راه اندازی «چت جی پی تی» بیش از یک میلیون کاربر برای طرح پرسش هایشان از آن ثبت نام کردند. صد ها شرکت روی فناوری های مولد کار می کنند و سرمایه گذاری در این عرصه در حال سرازیر شدن است و اکتشافات را به سوی حوزه تجاری سوق می دهد.
بزرگ ترین این مدل ها برای آموزش پرهزینه هستند؛ تقریبا یک میلیارد دلار برای هر مدل. هزاران رایانه پس از آموزش دیدن 24 ساعت در روز برای کار با آن فعال هستند. هوش مصنوعی مولد فراتر از مدل زبان بزرگ برای ساخت انواع مدل ها استفاده خواهد شد و این روش به طور فزاینده ای چندوجهی و محرمانه خواهد ماند و بسیاری از عرصه های تلاش انسان برای مثال آموزش و زیست شناسی را تغییر خواهد داد. مدل های مختلف از نظر نقاط قوت و ضعف متفاوت خواهند بود. توانایی های آن مدل ها از نوشتن جوک و نقاشی کشیدن گرفته تا طراحی آنتی بادی احتمالا همچنان ما را شگفت زده خواهد کرد. درست همان طور که مدل زبان بزرگ مدلی غنی تر از زبان انسانی را توسعه داد که سازندگان آن پیش بینی می کردند هوش مصنوعی های مولد در بسیاری از زمینه ها احتمالا بیش از آنچه وظایف محول شده شان نشان می دهد یاد می گیرند.
اهمیت درازمدت هوش مصنوعی مولد فراتر از مفاهیم تجاری یا حتی پیشرفت های علمی غیر تجاری است چرا که صرفا پاسخ تولید نمی کند بلکه از منظر فلسفی پرسش های عمیقی را مطرح و بر دیپلماسی و استراتژی های امنیتی نیز تاثیرگذار خواهد بود. با وجود این ، هیچ یک از سازندگان این فناوری به مشکلاتی که ایجاد خواهد کرد، نپرداخته اند. برای مثال، فقدان نقل قول در پاسخ های جی پی تی تشخیص حقیقت را از اطلاعات نادرست دشوار می سازد. ما پیش تر می دانستیم که بازیگران مخرب مجموعه ای از «حقایق» ساخته شده و تصاویر و ویدئو های «جعل عمیق» (دیپ فیک) را به شکل فزاینده ای متقاعدکننده به اینترنت تزریق کرده اند یعنی به مجموعه آموزشی حال و آینده چت جی پی تی.
از آنجا که چت جی پی تی برای پاسخ دادن به پرسش ها طراحی شده گاهی اوقات حقایقی را برای ارائه پاسخ به ظاهر منسجم می سازد. این پدیده در میان پژوهشگران هوش مصنوعی با عنوان «توهم» شناخته می شود که در آن هوش مصنوعی عباراتی را که برای یک خواننده انسانی واقعی به نظر می رسد، اما هیچ مبنایی در واقعیت ندارند در کنار یکدیگر قرار می دهد. اینکه چه چیزی باعث این خطا ها می شود و نحوه کنترل آن چگونه است هنوز مشخص نیست.چت جی پی تی شخصیت آشکاری ندارد. فقدان نویسنده قابل شناسایی چت جی پی تی درک تمایلات آن را برای انسان دشوارتر از قضاوت در مورد دیدگاه سیاسی یا اجتماعی یک انسان می سازد. در واقع، هوش مصنوعی درگیر یک آنالوگ غیرانسانی با شناخت است. اگرچه ما هوش مصنوعی مولد را در قالب انسان درک می کنیم اشتباهات آن اشتباهات یک انسان نیست. انسان ها نباید این اشتباهات را به عنوان خطا تشخیص دهند. آیا می توانیم تعصبات و عیوب آن را به همان اندازه که هستند تشخیص دهیم؟ بنابراین، توضیح خروجی های هوش مصنوعی همچنان دشوار است.
حقیقت علم عصر روشنگری مورد اعتماد بود، زیرا هر مرحله از فرآیند های آزمایشی قابل تکرار نیز مورد آزمایش قرار می گرفت بنابراین، امکان داشت که به آن اعتماد کنیم. حقیقت هوش مصنوعی مولد باید با روش های کاملا متفاوتی توجیه شود و ممکن است هرگز به طور مشابه مطلق نباشد.همان طور که ما سعی می کنیم درک خود را به دانشمان برسانیم باید به طور پیوسته از خود بپرسیم: در مورد ماشین هنوز برای ما آشکار نشده که چه دانش مبهمی را پنهان می سازد؟ استدلال هوش مصنوعی مولد تا حدی به عنوان بخشی از آموزش مدل احتمالا در طول زمان تغییر می کند. این یک نسخه شتاب یافته از پیشرفت علمی سنتی خواهد بود و سازگاری های تصادفی را به فرآیند کشف می افزاید. حتی اگر مدل های هوش مصنوعی مولد کاملا قابل تفسیر و دقیق شوند همچنان چالش های ذاتی در رفتار انسان ایجاد می کنند. دانش آموزان از چت جی پی تی برای تقلب در امتحانات استفاده می کنند.
هوش مصنوعی مولد می تواند تبلیغات ایمیلی ایجاد کند که صندوق های ورودی را پر می کند و قابل تفکیک و تشخیص از پیام های دوستان شخصی یا آشنایان تجاری نیست. ویدئو ها و تبلیغات تولید شده توسط هوش مصنوعی که پلتفرم های تبلیغاتی دروغین را به تصویر می کشند، می توانند تمایز بین مواضع سیاسی را دشوار سازند. تاثیر هوش مصنوعی مولد بر آموزش می تواند در کاهش توانایی رهبران آینده در تمایز قائل شدن بین آنچه به صورت شهودی در اختیار دارند و آنچه به طور مکانیکی جذب می کنند نمایان شود یا می تواند منجر به ایجاد رهبرانی شود که روش های مذاکره با ماشین ها و استراتژی نظامی خود را با تکامل هوش مصنوعی مولد به جای انسان از طریق رایانه ها بیاموزند. چت جی پی تی دارای ظرفیتی برای تحلیل است که از نظر کیفی متفاوت از ذهن انسان است، بنابراین آینده نه تنها مستلزم همکاری با نوع دیگری از موجودیت فنی بلکه با نوع دیگری از استدلال است که ممکن است عقلانی باشد بدون آنکه معقول باشد به یک معنا قابل اعتماد باشد، اما از جنبه ای دیگر قابل اعتماد نباشد.
این وابستگی خود احتمالا موجب دگرگونی در فراشناخت و هرمنوتیک درک فهم و درک انسان از نقش و کارکرد ما خواهد شد. ماشین های مورد استفاده در حکمرانی بدون پشتوانه های اخلاقی و فکری مناسب می توانند به جای تقویت انسانیتمان آن را تحت کنترل خود درآورند و ما را برای همیشه به دام بیندازند. این امر ضرورت های خاصی را برای تسلط بر آینده قریب الوقوع ما تحمیل می کند. اعتماد به هوش مصنوعی مستلزم بهبود در سطوح مختلف قابلیت اطمینان بخشی است در دقت و ایمنی ماشین، همسویی اهداف هوش مصنوعی با اهداف انسانی و در مسوولیت پذیری افراد حاکم بر ماشین. با وجود این ، حتی زمانی که سیستم های هوش مصنوعی از نظر فنی قابل اعتمادتر می شوند، انسان ها کماکان باید راه های جدید، ساده و قابل دسترس برای درک و به چالش کشیدن ساختارها، فرآیند ها و خروجی های سیستم های هوش مصنوعی بیابند. * وزیر خارجه اسبق آمریکا