۱۶ ارديبهشت ۱۴۰۲ - ۱۵:۵۵
کد خبر: ۷۳۴۰۰۷

شوخی با واقعیت

شوخی با واقعیت
هر چند این فناوری افق‌های نوینی برای انسان گشوده است‌ ولی در کنار این امکانات، تهدیدهای فلسفی جدیدی را هم رقم زده ‌است.
به گزارش سرویس فرهنگی و اجتماعی خبرگزاری رسا، این روزها همه جا صحبت از openai و chatgpt است. شرکت openai توانست پس از مدتی تلاش خود را به عنوان پرچمدار حوزه هوش مصنوعی بشناساند. در سال میلادی اخیر همه جا صحبت از هوش مصنوعی بود. اما هوش مصنوعی openai تنها مورد از موارد هوش مصنوعی نیست. قبل از openai سرویس‌هایی در این حوزه کار کرده‌اند و بعد از چت جی پی تی هوش مصنوعی پیشرفت‌هایی خواهد داشت.

شوخی با واقعیت

چرا chatgpt؟

همه غول‌های تکنولوژی هوش مصنوعی را سرفصل اهداف خود قرار داده‌اند، گوگل روی هوش مصنوعی گوگل بارد کار کرد و مایکروسافت با openai قرار داد بست. هر روز هوش مصنوعی جدیدی با تمرکز بر روی موضوع خاصی خودش را نشان می‌دهد. به عنوان مثال در حوزه ساخت عکس بیش از ده سرویس پیشروی ساخت عکس وجود دارند. اکنون وقتی از هوش مصنوعی صحبت می‌کنیم قبل از هرچیزی نام chatgpt به ذهن می‌رسد.

Openai با تمرکزی که در حوزه هوش مصنوعی گذاشت، هوش مصنوعی خود را در سطح بسیار گسترده‌ای وارد عمل کرد. چندین سرویس و چند حوزه کاری تحت پوشش openai قرار گرفتند، به همین دلیل خود را به عنوان یک هوش مصنوعی تمام و کمال به همگان معرفی کرد.

به همین دلیل روز به روز توجهات به آن بیشتر و در یک بازه زمانی کوتاه میلیون‌ها کاربر عضو آن شدند. اما ماجرا به همین جا ختم نخواهد شد، اکنون که مطرح‌ترین هوش مصنوعی جهان chatgpt است آیا سرویس‌هایی خواهند آمد که آن را به چالش بکشند، اگر اینطور است چه آینده‌ای در انتظار chatgpt خواهد بود؟

هوش مصنوعی از تخیل تا واقعیت

حد و مرز هوش مصنوعی برای هیچ کسی مشخص نیست، هیچ کدام ما نمی‌دانیم تا کجا هوش مصنوعی پیش می‌رود. کارشناسان هوش مصنوعی، این پدیده را یک پدیده بالقوه خطرناک می‌دانند. به گونه‌ای که برخی معتقدند خطر هوش مصنوعی از خطر بمب هسته‌ای هم بیشتر است.chatgpt دوباره این بحث‌ها را داغ کرد.

هوش مصنوعی و دانش رباتی از آغاز محل خیال پردازی‌های بسیاری در حوزه داستان و سینما بوده است. همچنین ترس از هوش مصنوعی هم بین همگان امر رایجی است. واقعا باید به هوش مصنوعی چه حسی داشت؟ باید به آن بدبین باشیم یا خوش بین؟

*مکتوب ذیل، متن ویرایش و تلخیص‌شده ای از سخنرانی دکتر قائمی‌نیا عضو هیأت علمی پژوهشگاه فرهنگ و اندیشه اسلامی است که با عنوان «فرصت‌ها و چالش‌های چت GPT» در سلسله نشست‌های تخصصی «بررسی نقشه راه کلان حوزه هوش‌مصنوعی کشور» در مرکز تحقیقات کامپیوتری علوم‌اسلامی نور ارائه‌ شد.

شوخی با واقعیت

چت GPT، یک فناوری شگفت‌آور است که به مثابه یک توانایی جدید در هوش‌مصنوعی، این روزها توجه بسیاری از محققان، فیلسوفان و زبان‌شناسان را به خود جلب کرده ‌است.

کتاب «آینده‌ جنگ‌ و هوش‌مصنوعی» هشت دوره جنگ‌های فکری را راجع‌به هوش‌مصنوعی مطرح می‌کند اما با پیدایش GPT، این روزها مرحله جدیدی از «جنگ‌های شناختی» را تجربه می‌کنیم. هر چند این فناوری افق‌های نوینی برای انسان گشوده است‌ ولی در کنار این امکانات، تهدیدهای فلسفی جدیدی را هم رقم زده ‌است.

شوخی با واقعیت

فهم «زبان» از دریچه هوش‌مصنوعی

GPT در واقع در ادامه فناوری‌های قبلی همچون ‌NLP (Natural language processing) در هوش‌مصنوعی قرار می‌گیرد. از رهگذر این فناوری می‌توانیم به این پرسش بپردازیم که چگونه هوش‌مصنوعی «زبان» را فهم می‌کند؟ تقریباً اغلب ترکیبات ‌زبانی اعم از شبیه‌سازی پیشرفته، یادگیری عمیق که بر اساس مدل‌های عصبی و... محقق می‌شود، در این فناوری ممکن شده‌ است.

واقعیت این است که چت GPT ماحصل نسل اول و دوم علوم‌شناختی است. در علوم‌شناختی که با ذهن و فرایندهای ذهنی سر و کار دارد، ما با دو نسل و دو پارادایم مواجه هستیم؛ یکی پارادایم محاسباتی که اصطلاحاً «نظریه محاسباتی ذهن» گفته‌ می‌شود و ملکه این نسل «هوش‌مصنوعی» است. بر اساس این پارادایم، تفکر چیزی جز تکثیر نمادها نیست. نسل دوم مربوط به پارادایم علوم‌شناختی است که از مدل‌های عصب‌شناختی بهره می‌گیرد که برآمده از نحوه کارکرد واقعی مغز است. در فناوری GPT این دو پارادایم ترکیب و به بهترین نحو بکار گرفته ‌شده‌اند.

در هوش‌مصنوعی دو اتفاق معرفت‌شناختی رخ‌ داده ‌است؛ از آنجا که هوش‌مصنوعی با داده‌ها و اطلاعات سر و کار دارد و از آنها تغذیه می‌کند، یک اتفاق معرفتی در آن‌ «معناشناسی» است؛ بدین معنا که عملاً کارکرد چت GPT داده‌کاوی و دسته‌بندی داده‌ها است که این امر همچون «مقام گردآوری در علم» است. اتفاق معرفت‌شناختی دیگری که در هوش‌مصنوعی صورت می‌گیرد، شبیه‌سازی و مدل‌سازی است که این هم مشابه «مقام داوری در علم» است.

هوش مصنوعی به «آگاهی انسان» منجر نمی‌شود

اگر مروری بر روند شکل‌گیری و تکامل هوش‌مصنوعی و امکانات آن داشته ‌باشیم درمی‌یابیم که اولین امکان دسترسی به داده‌ها در سطح Data بود و بعد این امکان به شکل گسترده‌تری در قالب Big data یا «کلان‌ داده‌ها» پدید آمد.

اما اتفاق جدیدی که در چت GPT رخ داده، ظهور «سوپر دیتاها» است. بنابراین، از رهگذر این فناوری جدید، عملاً منبع اطلاعاتی هوش‌مصنوعی بالا رفته‌ است؛ به یک معنا این فناوری به هوش‌مصنوعی عمومی نزدیک شده‌ است؛ منظور از هوش‌مصنوعی عمومی، هوش مصنوعی چند منظوره است که طی آن می‌تواند کارهای متفاوتی انجام ‌دهد و بحث بر سر این است که این فناوری آیا به آن آگاهی انسانی و بشری هم دست پیدا می‌کند یا خیر؟

برخی از افراد، این دو، یعنی هوش‌مصنوعی عمومی و آگاهی بشری را یکی در نظر می‌گیرند و بر این باورند که هوش‌مصنوعی عمومی قطعاً آگاهی هم خواهد داشت اما واقعیت این است که از نظر منطقی این دو از هم متفاوتند.

چت GPT و تقویت «توانایی‌های زبانی»

اتفاق دیگری که در این فناوری افتاده ‌است، تقویت توانایی‌های زبانی است.‌ کاربران زبان طبیعی باید یک سری توانایی‌هایی داشته ‌باشند که چامسکی سه توانایی زبانی را برای انسان برمی‌شمارد:

۱.توانایی نحوی؛ تا کاربران بتوانند ترکیبات خوش‌ساختی را مطابق زبان‌ خود بسازند.

۲. توانایی معنایی؛ تا کاربران بتوانند جملاتی را بر اساس نظام معنایی خود بسازند.

۳. توانایی کاربردی؛ تا کاربران بتوانند جملات و کلمات مختلف را در سیاق‌های مختلف بکار برند.

البته برخی، توانایی چهارمی را هم به این دسته‌بندی می‌افزایند و آن «توانایی‌ هرمنوتیکی» است. در مجموع کاربران زبان باید این چهار توانایی را داشته‌ باشند تا قادر باشند به یک زبان طبیعی سخن بگویند یا متنی را در یک زبان طبیعی بوجود آورند که مجموعه این توانایی‌ها، در فناوری GPT هم حضور دارد.

اما با آمدن چت GPT عملاً چند اتفاق رقم خورد؛ نخست، انتقال از «کلان‌داده‌ها» به «فراداده‌ها» دوم، تقویت مهارت‌های زبانی و سوم هوش‌مصنوعی عمومی. در نتیجه این اتفاقات برخی گمان می‌کنند هوش مصنوعی توانسته به «آگاهی» دست پیدا کند، اما این استدلال چندان معتبر نیست زیرا اکثر کسانی که این امر را مطرح می‌کنند، توانایی زبانی را دلیل بر وجود چنین آگاهی‌ در نظر می‌گیرند. این در حالی است که اولاً داشتن توانایی زبانی به معنای داشتن آگاهی نیست.

کاری که هوش مصنوعی می‌کند این است که از میان اطلاعات فراوان بر اساس یک الگوریتم آماری، آنهایی را که خیلی محتمل هستند گزینش می‌کند که این به معنای آگاهی خاصی که درون انسان وجود دارد و فلاسفه ذهن از آن تحت عنوان «آگاهی پدیداری» حرف می‌زنند، نیست. فلاسفه ذهن، آگاهی را دو قسم می‌کنند؛ نخست آگاهی پدیداری، بدین معنا که وقتی ما چیزی را می‌بینیم، می‌شنویم یا لمس می‌کنیم به یک تجربه‌ای می‌رسیم و به این تجربه «آگاهی پدیداری» گفته می‌شود. و دوم «آگاهی در دسترس» است و منظور این است که از میان اطلاعاتی در دسترس، آن اطلاعاتی را گزینش می‌کنیم که مورد نیاز است.

«آگاهی در دسترس» در هوش‌مصنوعی وجود دارد چرا که اساساً بر مبنای این نوع آگاهی شکل گرفته ‌است. اما «آگاهی پدیداری» تنها به انسان اختصاص دارد.

بسیاری از فلاسفه هوش‌مصنوعی بویژه آنان که رویکرد مهندسی دارند، تلاش می‌کنند به نوعی «آگاهی پدیداری» را هم در این فناوری اثبات ‌کنند اما صرف وجود توانایی‌های زبانی بدین معنا که هوش‌مصنوعی می‌تواند به خوبی صحبت ‌کند و بنویسد، نمی‌تواند به معنای «توانایی آگاهی پدیداری» در این فناوری باشد زیرا هوش‌مصنوعی تنها از میان داده‌های بسیار زیاد و انبوه، آنهایی را که متناسب با مورد خود است اختیار می‌کند که این عملکرد به هیچ‌وجه به معنای «توانایی آگاهی پدیداری» نیست؛ بدین معنا که بتواند متنی را کاملاً خلاقانه تولید کند.

بنابراین، هیچ گاه نباید این دو یعنی «توانایی زبانی» و «آگاهی» را به یک معنا گرفت و چامسکی هم بشدت با این خلط مفهومی مخالف است.

مغز انسان تکرار نشدنی است

از دیگر پرسش‌های مهم در خصوص هوش‌مصنوعی این است که آیا هوش‌مصنوعی می‌تواند تفکر «فرضیه‌ربایی» داشته ‌باشد؟ بدین‌ معنا که در شرایط مختلف متناسب با موقعیتی که در آن قرار دارد، فرضیه‌ای را پیش بکشد؟

واقعیت این است که مغز انسان تکرارنشدنی است و نقدهایی که امثال چامسکی تحت این عنوان که «چت GPT فاقد توانایی تبیین است» دقیقاً به همین توانایی «فرضیه‌ربایی» اشاره‌ دارد.

بنابراین، چت GPT به‌رغم همه امکاناتی که به همراه داشته و افق‌های جدیدی که برای انسان امروز گشوده‌ نتوانسته جایگزینی برای هوش انسانی باشد و در عین حال، تهدیدهای فلسفی جدیدی را هم برای انسان امروز رقم زده‌ است که در کنار این امکاناتش باید به این تهدیدات هم پرداخت و نسبت به آنها هشیار بود.

نگاه نوآم چامسکی، زبان‌شناس و فیلسوف امریکایی، به فناوری GPT

زایشگاه جهل

چت جی پی تی (Chat GPT) ابزار پردازش زبان طبیعی است که توسط فناوری هوش‌مصنوعی هدایت می‌شود و به کاربر این قابلیت را می‌دهد که با یک روبات صحبت کند و از او سؤال بپرسد و پاسخ بگیرد. این فناوری، به تازگی به یکی از محبوب‌ترین ابزارهای هوش‌مصنوعی در جهان بدل شده ‌است به نحوی که برخی به نقل از بیل‌گیتس، آن را در آینده، برتر از گوگل و ابزارهای این چنینی می‌دانند.

شوخی با واقعیت

اما با این حال، «نوآم چامسکی»، زبان‌شناس و فیلسوف برجسته امریکایی، اخیراً در یادداشتی در وب‌سایت نیویورک تایمز مدعی شده است که این فناوری هرگز نمی‌تواند گفت‌وگوهای ناب، فکرشده و بحث‌برانگیز داشته باشد. او در وضعیت فعلی، هوش‌مصنوعی را مصداق «ابتذال شر» می‌داند.

به زعم او، این فناوری به‌شکلی عمیق با شیوه استدلال و استفاده از زبان توسط انسان‌ها تفاوت دارد که این تفاوت‌ها محدودیت‌های بزرگی را بر دامنه قابلیت‌های این برنامه‌ها اعمال می‌کند.

چامسکی معتقد است که هوش حقیقی با قابلیت تفکر و بروز رفتارهای غیرمحتمل اما خردمندانه به نمایش درمی‌آید ولی فناوری جی پی تی چیزی جز یک بازی نیست.

«فرهنگ دیجیتال» از نگاه لو مانوویچ، استاد علوم رایانه دانشگاه نیویورک

یک مهارت پرتقاضا در دنیای آینده

زندگی روزمره مردم حاوی «داده‌های فرهنگی» مهمی برای پژوهشگران مطالعات فرهنگی و سیاستگذاران فرهنگی است؛ چرا که از رهگذر آن، سیاستگذاران فرهنگی می‌توانند به افکار عمومی، نیازها و آرمان‌های یک جامعه پی ببرند و برنامه‌ و سامانی برای آن پیش‌بینی کنند.

با توجه به اینکه اکنون در دنیای دیجیتالیزه به ‌سر می‌بریم، این «کلان‌داده‌های فرهنگی» اغلب در فضای مجازی و شبکه‌های اجتماعی به صورت متنی یا تصویری تولید می‌شوند.

حال، تحلیلگران علمِ داده همچون لو مانوویچ (Lev Manovich) بر این باورند، برای اینکه این کلان‌داده‌ها بتوانند مورد استفاده سیاستگذاران یا پژوهشگران فرهنگی قرار گیرند باید در قالب داده‌های رایانه‌ای کدگذاری شوند تا قابلیت خوانش و استفاده پیدا کنند.

 

کاربرد علم داده‌ها برای تحلیل فرهنگ معاصر

مانوویچ، استاد علوم رایانه دانشگاه نیویورک، از برجسته‌ترین نظریه‌پردازان فرهنگ دیجیتال و از پیشگامان کاربرد علم داده‌ها برای تحلیل فرهنگ معاصر است.

او دکترای مطالعات دیداری و فرهنگی از دانشگاه روچستر دارد و آثاری چون «زیبایی‌شناسی هوش‌مصنوعی»، «نظریه‌های فرهنگ نرم‌افزار» و «اینستاگرام و تصویر معاصر» در کارنامه علمی‌اش به چشم می‌خورد.

او معتقد است، برای اینکه بتوانیم درباره «فرهنگ دیجیتال» استدلال نظری داشته باشیم، باید بتوانیم آن را ببینیم و برای دیدنش به ‌دلیل مقیاس آن، به رایانه نیاز داریم. او برای مطالعه رسانه‌های معاصر، ابزارهایی کاربردی در اختیار محققان قرار می‌دهد و با تمرکز بر رسانه‌های تصویری توانسته است مفاهیم و روش‌هایی برای تحلیل رایانه‌ای داده‌های فرهنگی ارائه کند.

تحلیل داده‌ها در واقع، درک و آماده‌سازی داده‌ها به منظور استخراج اطلاعات سودمند برای تصمیم‌گیری و سیاستگذاری است و این روزها به یک مهارت پرتقاضا و مهم برای سیاستگذاران بدل شده‌ است و در اغلب شاخه‌های علمی و صنعتی از جمله اقتصاد، رشته‌های مهندسی، بازاریابی، پزشکی و... کاربرد دارد.

اهمیت کلان‌داده‌های فرهنگی برای سیاستگذاران

به نظر می‌رسد که امروزه «داده‌ها» اطلاعاتی بیش از درک و بینش کمی را منعکس می‌کنند و به قول آلبرت-لازلو باراباسی، استاد علوم‌ شبکه در دانشگاه نورث ایسترن، «داده‌ها، درک ما از فرهنگ را مجدداً شکل می‌دهند» و این نکته‌ای است که امروزه برنامه‌ریزان و متفکران برجسته دنیا به آن پی برده‌اند.

بنابراین، در جهان دیجیتالیزه شده امروز، پژوهشگران و سیاستگذاران فرهنگی برای رسیدن به تصویری جامع از فرهنگ، ناگزیر از شناخت و به‌کارگیری روش‌های تحلیل کلان‌داده‌های فرهنگی هستند و رسیدن به این سطح از تحلیل و مهارت، توصیه لو مانوویچ برای برنامه‌ریزان و سیاستگذاران فرهنگی است و معتقد است که این مهارتی پرتقاضا در دنیای آینده خواهد بود.

ارسال نظرات