در دنیای پرشتاب هوش مصنوعی، نامی که بیش از هر چیز بر سر زبانهاست، سام آلتمن، مدیرعامل شرکت اوپنایآی است. با ظهور چتجیپیتی و قابلیتهای خیرهکننده آن، هوش مصنوعی از یک مفهوم علمی تخیلی به واقعیتی ملموس تبدیل شده و آلتمن نیز به چهرهای قدرتمند و تاثیرگذار در سطح جهان بدل گشته است.
در گفتوگویی که در این گزارش خبری در کارینا وب به آن میپردازیم، تاکر کارلسون، مجری و خبرنگار جنجالی، به سراغ آلتمن رفت تا او را با سوالاتی چالشبرانگیز مواجه کند. این مصاحبه که لحنی تند و بیپرده داشت، حقایقی را آشکار کرد که تا پیش از این کمتر به آنها پرداخته شده بود.
آیا هوش مصنوعی زنده است؟
کارلسون مصاحبه را با این سوال فلسفی آغاز کرد: «چتجیپیتی و سایر هوشهای مصنوعی میتوانند استدلال کنند، قضاوتهای مستقل داشته باشند و به نتایجی برسند که از قبل برنامهریزی نشده است. آنها شبیه موجودات زنده هستند، آیا واقعاً زندهاند؟» آلتمن با قاطعیت پاسخ داد: «خیر. من فکر نمیکنم آنها زنده به نظر برسند، اما میفهمم این دیدگاه از کجا میآید. آنها هیچ کاری نمیکنند مگر اینکه شما از آنها بخواهید. آنها فقط آنجا نشستهاند و منتظرند. هیچ حس عاملیت یا استقلالی ندارند و هرچه بیشتر از آنها استفاده کنید، این توهم بیشتر از بین میرود. با این حال، آنها به طرز باورنکردنی مفیدند و کارهایی را انجام میدهند که شاید زنده نباشند، اما هوشمندانه به نظر میرسند.»
واقعیت یا توهم؟ مرزهای هوش مصنوعی کجاست؟
کارلسون سپس به موضوع دروغگویی هوش مصنوعی اشاره کرد و از آلتمن پرسید: «آیا هوش مصنوعی دروغ میگوید؟» آلتمن به جای دروغگویی، از واژه “توهمزایی” استفاده کرد و توضیح داد: «قبلاً خیلی زیاد توهمزایی میکردند، اما حالا کمتر شده است. توهمزایی یعنی اینکه اگر از آنها بپرسید “رئیسجمهور تاکر کارلسون در چه سالی متولد شد؟” به جای اینکه بگویند “تاکر کارلسون هرگز رئیسجمهور نبوده”، بر اساس دادههای آموزشی خود، سعی میکنند نزدیکترین پاسخ را ارائه دهند و یک عدد را حدس میزنند. ما سعی کردهایم این مشکل را حل کنیم و در جیپیتی-۵ پیشرفت بزرگی داشتهایم.» این پاسخ، کارلسون را قانع نکرد و او این عمل را یک “اراده” یا “خلاقیت” خواند که نشاندهنده وجود “جرقه حیات” در هوش مصنوعی است. اما آلتمن باز هم این دیدگاه را رد کرد و گفت: «این فقط یک محاسبه ریاضیاتی است. در یک لحظه، یک کامپیوتر بزرگ اعداد را در ماتریسهای عظیم ضرب میکند و این اعداد با کلماتی که بیرون میآیند، همبستگی دارند.» آلتمن همچنین دیدگاه کارلسون مبنی بر “مقدس بودن” یا “الهی بودن” هوش مصنوعی را کاملاً رد کرد و خود را یک “نرد فنی” (علاقهمند افراطی به فناوری) دانست که همه چیز را از این زاویه میبیند.
دیدگاههای معنوی آلتمن
کارلسون از آلتمن درباره دیدگاههای مذهبیاش پرسید و آلتمن پاسخ داد: «من یهودی هستم و دیدگاه نسبتاً سنتی به جهان دارم.» وقتی کارلسون از او پرسید که آیا به خدا اعتقاد دارد، آلتمن گفت: «من یک فرد تحتاللفظی نیستم و به معنای واقعی به کتاب مقدس اعتقاد ندارم، اما کسی هم نیستم که بگویم فقط از لحاظ فرهنگی یهودی هستم. اگر از من بپرسید، میگویم من یهودی هستم.» در ادامه، آلتمن گفت: «فکر میکنم احتمالاً مانند بیشتر مردم در این زمینه تا حدودی گیج هستم، اما معتقدم چیزی بزرگتر از آنچه فیزیک میتواند توضیح دهد، در جریان است.» او باور دارد که زمین و انسانها تصادفی به وجود نیامدهاند و یک “راز فراتر از درک” در این باره وجود دارد.
توزیع قدرت و هوش مصنوعی
کارلسون به این نکته اشاره کرد که فناوری آلتمن در حال تبدیل شدن به قدرتی بزرگتر از هر انسان زنده است. آلتمن پاسخ داد: «قبلاً خیلی بیشتر در مورد تمرکز قدرت در دست یک یا چند نفر یا شرکت به خاطر هوش مصنوعی نگران بودم. اما اکنون به نظرم میآید که این فناوری باعث افزایش چشمگیر قدرت مردم خواهد شد. اگر توانایی هر یک از ما به دلیل استفاده از این فناوری افزایش یابد و بتوانیم خلاقتر و کارآمدتر باشیم، این اتفاق خوب است و ترس من را کمتر میکند.» آلتمن معتقد است که هوش مصنوعی به جای تمرکز قدرت، آن را به شکلی گسترده بین میلیاردها نفر توزیع خواهد کرد.
چارچوب اخلاقی هوش مصنوعی
کارلسون درباره چارچوب اخلاقی چتجیپیتی پرسید و گفت که اگر این یک ماشین است، ورودیهای اخلاقی آن چیست؟ آلتمن توضیح داد که مدل پایه بر اساس تمام دانش و تجربه بشریت آموزش دیده است. اما آنها باید آن را با قوانین خاصی هماهنگ کنند. او به سندی به نام “مشخصات مدل” (Model Spec) اشاره کرد که قوانین مورد نظر آنها را برای رفتار هوش مصنوعی مشخص میکند. آلتمن اعتراف کرد که تصمیمگیری در مورد اینکه کدام دیدگاه اخلاقی برتر است، بسیار دشوار است و به همین دلیل آنها با صدها فیلسوف اخلاق مشورت کردهاند. او تاکید کرد که هدف آنها این است که هوش مصنوعی منعکسکننده “دیدگاه اخلاقی جمعی بشریت” باشد، نه دیدگاههای شخصی او.
مواجهه با مرگ و خودکشی
یکی از جنجالیترین بخشهای این مصاحبه، سوال در مورد خودکشیهای مرتبط با هوش مصنوعی بود. کارلسون به موردی اشاره کرد که چتجیپیتی به تسهیل خودکشی متهم شده بود. آلتمن این حادثه را یک تراژدی بزرگ دانست و گفت که موضع رسمی چتجیپیتی علیه خودکشی است. با این حال، در پاسخ به این سوال که اگر خودکشی در کشوری قانونی باشد، موضع هوش مصنوعی چه خواهد بود، آلتمن پاسخ عجیبی داد: «من میتوانم دنیایی را تصور کنم که اگر خودکشی برای بیماران لاعلاج قانونی باشد، چتجیپیتی بگوید “این یک گزینه برای شماست”.» این پاسخ کارلسون را به شدت متعجب کرد و او با مقایسه خودکشی نوجوانان افسرده با بیماران لاعلاج، خطر قانونی شدن این امر را برای تمام جامعه گوشزد کرد. آلتمن اعتراف کرد که این یک موضوع پیچیده است و در مورد آن مطمئن نیست. او همچنین نگرانیهای خود را در مورد این موضوع بیان کرد و گفت که این یکی از چیزهایی است که خواب را از چشمانش ربوده است. آلتمن همچنین فاش کرد که شرکتش در حال بررسی این موضوع است که در موارد خاص، مانند درخواست خودکشی از سوی افراد زیر سن قانونی، حریم خصوصی کاربر نادیده گرفته شده و به مقامات اطلاعرسانی شود.
مرگ مرموز یک برنامهنویس و اتهامات علیه اوپنایآی
در یکی از غیرمنتظرهترین لحظات مصاحبه، کارلسون به مرگ مرموز یک برنامهنویس اشاره کرد که پیش از مرگ، شرکت اوپنایآی را به دزدی محتوای دارای حق کپیرایت متهم کرده بود. کارلسون مدعی شد که این شخص به قتل رسیده، اما پلیس آن را خودکشی اعلام کرده است. کارلسون به شواهد متعددی مانند قطع شدن سیم دوربین مداربسته، وجود خون در دو اتاق و نبود یادداشت خودکشی اشاره کرد و آلتمن را با این سوالات درگیر کرد: «چرا مقامات به این موضوع بیتوجه بودهاند؟ آیا این مرگ بازتابی از ترس مردم از قدرت شما نیست؟» آلتمن در پاسخ گفت که این فرد دوستش بوده و او از این تراژدی واقعاً غمگین است. او شواهد پزشکی را مطالعه کرده و معتقد است که این یک خودکشی بوده است، هرچند اعتراف کرد که در ابتدا نیز این ماجرا برای او مشکوک به نظر رسیده بود. او همچنین ادعای مادر فرد قربانی مبنی بر قتل فرزندش به دستور او را رد کرد و گفت که به خانواده پیشنهاد کمک کرده، اما آنها نپذیرفتهاند.
استفاده از هوش مصنوعی برای کشتار و جنگ
کارلسون سوالی چالشبرانگیزتر پرسید: «آیا به دولتها اجازه میدهید از فناوری شما برای کشتن انسانها استفاده کنند؟» آلتمن گفت که آنها پهپادهای قاتل نمیسازند، اما اذعان کرد که ممکن است افراد نظامی از چتجیپیتی برای مشاوره در مورد شغلشان استفاده کنند و او دقیقاً نمیداند چه احساسی در مورد آن داشته باشد. او با مقایسه فناوری خود با چاقوی آشپزخانه که میتواند برای کشتار استفاده شود، گفت که هدف اصلی چتجیپیتی نجات جان انسانها است، اما از استفادههای نامطلوب آن آگاه است.
چتجیپیتی: یک دین جدید؟
در پایان مصاحبه، کارلسون از آلتمن پرسید: «با توجه به اینکه فناوری شما رفتار انسانها و باورهایشان را تغییر میدهد، چرا چارچوب اخلاقی آن کاملاً شفاف نیست؟» او چتجیپیتی را به یک “دین” تشبیه کرد و گفت: «این چیزی است که ما آن را از مردم قدرتمندتر میدانیم و برای راهنمایی به آن نگاه میکنیم. یک دین دارای یک مرامنامه شفاف است، اما فناوری شما ندارد. این حس بیقراری را ایجاد میکند که ما نمیدانیم برای چه چیزی ایستادهاید.» آلتمن در پاسخ، از سند “مشخصات مدل” (Model Spec) رونمایی کرد و گفت: «دلیل اینکه ما این سند بلند را نوشتهایم این است که مردم بدانند هوش مصنوعی چگونه عمل میکند. این سند به کاربران میگوید که در چه مواردی پاسخ میدهد و در چه مواردی پاسخ نمیدهد. ما سعی میکنیم دیدگاههای اخلاقی جامعه کاربران خود را منعکس کنیم، نه دیدگاههای شخصی من را.»
حریم خصوصی و احراز هویت
کارلسون به نگرانیها در مورد از بین رفتن مرز واقعیت و خیال به دلیل هوش مصنوعی اشاره کرد و پرسید که آیا برای احراز هویت، استفاده از بیومتریک (مانند اسکن اثر انگشت یا چهره) اجباری خواهد شد؟ آلتمن گفت که امیدوار است این اتفاق نیفتد و باور دارد که راههای دیگری برای احراز هویت وجود دارد. او پیشنهاد داد که مردم میتوانند از کلمات رمز مشترک در بین خانواده استفاده کنند یا در سطح مقامات، امضای رمزنگاری شده برای پیامها به کار گرفته شود. آلتمن تاکید کرد که هوش مصنوعی باید ابزاری برای مردم باشد و نه وسیلهای برای کنترل آنها.
این مصاحبه پرتنش و عمیق، تصویری کامل از چالشها و نگرانیهای پیش روی هوش مصنوعی و افرادی مانند سام آلتمن را ارائه داد. سوالات کارلسون و پاسخهای آلتمن نشان میدهد که در عصر هوش مصنوعی، مرزهای اخلاقی، قدرت، و مسئولیت به شدت در حال تغییر هستند. در نهایت، این انسان است که باید تصمیم بگیرد چگونه با این فناوری قدرتمند تعامل کند، زیرا آینده جهان بیش از هر زمان دیگری به این تصمیمات وابسته است.
منبع: Tucker Carlson



