لوگو کارینا وب

مصاحبه جنجالی تاکر کارلسون با سم آلتمن: هوش مصنوعی روح ندارد، اما دنیای ما را بازنویسی می‌کند

در یک گفت‌وگوی جنجالی، تاکر کارلسون، خبرنگار مشهور، به سراغ سام آلتمن، مدیرعامل اوپن‌ای‌آی رفت تا درباره هوش مصنوعی، خطرات آن، اخلاقیات و آینده جهان صحبت کند. آلتمن که در حال حاضر قدرتمندترین فرد جهان محسوب می‌شود، در این مصاحبه اعتراف کرد که شب‌ها خواب ندارد و از پیامدهای کوچک‌ترین تصمیمات خود که بر زندگی صدها میلیون انسان تاثیر می‌گذارد، نگران است. این گفت‌وگو پرده از ابعاد پنهان هوش مصنوعی، خودکشی‌های مرتبط با آن، مرگ مرموز یک برنامه‌نویس و اختلافات آلتمن با ایلان ماسک برداشت. این گزارش خبری در کارینا وب به صورت تحلیلی و کامل به جزئیات این مصاحبه می‌پردازد.

فهرست مطالعه سریع:

در دنیای پرشتاب هوش مصنوعی، نامی که بیش از هر چیز بر سر زبان‌هاست، سام آلتمن، مدیرعامل شرکت اوپن‌ای‌آی است. با ظهور چت‌جی‌پی‌تی و قابلیت‌های خیره‌کننده آن، هوش مصنوعی از یک مفهوم علمی تخیلی به واقعیتی ملموس تبدیل شده و آلتمن نیز به چهره‌ای قدرتمند و تاثیرگذار در سطح جهان بدل گشته است.

در گفت‌وگویی که در این گزارش خبری در کارینا وب به آن می‌پردازیم، تاکر کارلسون، مجری و خبرنگار جنجالی، به سراغ آلتمن رفت تا او را با سوالاتی چالش‌برانگیز مواجه کند. این مصاحبه که لحنی تند و بی‌پرده داشت، حقایقی را آشکار کرد که تا پیش از این کمتر به آن‌ها پرداخته شده بود.

 

آیا هوش مصنوعی زنده است؟

کارلسون مصاحبه را با این سوال فلسفی آغاز کرد: «چت‌جی‌پی‌تی و سایر هوش‌های مصنوعی می‌توانند استدلال کنند، قضاوت‌های مستقل داشته باشند و به نتایجی برسند که از قبل برنامه‌ریزی نشده است. آن‌ها شبیه موجودات زنده هستند، آیا واقعاً زنده‌اند؟» آلتمن با قاطعیت پاسخ داد: «خیر. من فکر نمی‌کنم آن‌ها زنده به نظر برسند، اما می‌فهمم این دیدگاه از کجا می‌آید. آن‌ها هیچ کاری نمی‌کنند مگر اینکه شما از آن‌ها بخواهید. آن‌ها فقط آنجا نشسته‌اند و منتظرند. هیچ حس عاملیت یا استقلالی ندارند و هرچه بیشتر از آن‌ها استفاده کنید، این توهم بیشتر از بین می‌رود. با این حال، آن‌ها به طرز باورنکردنی مفیدند و کارهایی را انجام می‌دهند که شاید زنده نباشند، اما هوشمندانه به نظر می‌رسند.»

 

واقعیت یا توهم؟ مرزهای هوش مصنوعی کجاست؟

کارلسون سپس به موضوع دروغگویی هوش مصنوعی اشاره کرد و از آلتمن پرسید: «آیا هوش مصنوعی دروغ می‌گوید؟» آلتمن به جای دروغگویی، از واژه “توهم‌زایی” استفاده کرد و توضیح داد: «قبلاً خیلی زیاد توهم‌زایی می‌کردند، اما حالا کمتر شده است. توهم‌زایی یعنی اینکه اگر از آن‌ها بپرسید “رئیس‌جمهور تاکر کارلسون در چه سالی متولد شد؟” به جای اینکه بگویند “تاکر کارلسون هرگز رئیس‌جمهور نبوده”، بر اساس داده‌های آموزشی خود، سعی می‌کنند نزدیک‌ترین پاسخ را ارائه دهند و یک عدد را حدس می‌زنند. ما سعی کرده‌ایم این مشکل را حل کنیم و در جی‌پی‌تی-۵ پیشرفت بزرگی داشته‌ایم.» این پاسخ، کارلسون را قانع نکرد و او این عمل را یک “اراده” یا “خلاقیت” خواند که نشان‌دهنده وجود “جرقه حیات” در هوش مصنوعی است. اما آلتمن باز هم این دیدگاه را رد کرد و گفت: «این فقط یک محاسبه ریاضیاتی است. در یک لحظه، یک کامپیوتر بزرگ اعداد را در ماتریس‌های عظیم ضرب می‌کند و این اعداد با کلماتی که بیرون می‌آیند، همبستگی دارند.» آلتمن همچنین دیدگاه کارلسون مبنی بر “مقدس بودن” یا “الهی بودن” هوش مصنوعی را کاملاً رد کرد و خود را یک “نرد فنی” (علاقه‌مند افراطی به فناوری) دانست که همه چیز را از این زاویه می‌بیند.

 

دیدگاه‌های معنوی آلتمن

کارلسون از آلتمن درباره دیدگاه‌های مذهبی‌اش پرسید و آلتمن پاسخ داد: «من یهودی هستم و دیدگاه نسبتاً سنتی به جهان دارم.» وقتی کارلسون از او پرسید که آیا به خدا اعتقاد دارد، آلتمن گفت: «من یک فرد تحت‌اللفظی نیستم و به معنای واقعی به کتاب مقدس اعتقاد ندارم، اما کسی هم نیستم که بگویم فقط از لحاظ فرهنگی یهودی هستم. اگر از من بپرسید، می‌گویم من یهودی هستم.» در ادامه، آلتمن گفت: «فکر می‌کنم احتمالاً مانند بیشتر مردم در این زمینه تا حدودی گیج هستم، اما معتقدم چیزی بزرگ‌تر از آنچه فیزیک می‌تواند توضیح دهد، در جریان است.» او باور دارد که زمین و انسان‌ها تصادفی به وجود نیامده‌اند و یک “راز فراتر از درک” در این باره وجود دارد.

 

توزیع قدرت و هوش مصنوعی

کارلسون به این نکته اشاره کرد که فناوری آلتمن در حال تبدیل شدن به قدرتی بزرگ‌تر از هر انسان زنده است. آلتمن پاسخ داد: «قبلاً خیلی بیشتر در مورد تمرکز قدرت در دست یک یا چند نفر یا شرکت به خاطر هوش مصنوعی نگران بودم. اما اکنون به نظرم می‌آید که این فناوری باعث افزایش چشمگیر قدرت مردم خواهد شد. اگر توانایی هر یک از ما به دلیل استفاده از این فناوری افزایش یابد و بتوانیم خلاق‌تر و کارآمدتر باشیم، این اتفاق خوب است و ترس من را کمتر می‌کند.» آلتمن معتقد است که هوش مصنوعی به جای تمرکز قدرت، آن را به شکلی گسترده بین میلیاردها نفر توزیع خواهد کرد.

 

چارچوب اخلاقی هوش مصنوعی

کارلسون درباره چارچوب اخلاقی چت‌جی‌پی‌تی پرسید و گفت که اگر این یک ماشین است، ورودی‌های اخلاقی آن چیست؟ آلتمن توضیح داد که مدل پایه بر اساس تمام دانش و تجربه بشریت آموزش دیده است. اما آن‌ها باید آن را با قوانین خاصی هماهنگ کنند. او به سندی به نام “مشخصات مدل” (Model Spec) اشاره کرد که قوانین مورد نظر آن‌ها را برای رفتار هوش مصنوعی مشخص می‌کند. آلتمن اعتراف کرد که تصمیم‌گیری در مورد اینکه کدام دیدگاه اخلاقی برتر است، بسیار دشوار است و به همین دلیل آن‌ها با صدها فیلسوف اخلاق مشورت کرده‌اند. او تاکید کرد که هدف آن‌ها این است که هوش مصنوعی منعکس‌کننده “دیدگاه اخلاقی جمعی بشریت” باشد، نه دیدگاه‌های شخصی او.

 

مواجهه با مرگ و خودکشی

یکی از جنجالی‌ترین بخش‌های این مصاحبه، سوال در مورد خودکشی‌های مرتبط با هوش مصنوعی بود. کارلسون به موردی اشاره کرد که چت‌جی‌پی‌تی به تسهیل خودکشی متهم شده بود. آلتمن این حادثه را یک تراژدی بزرگ دانست و گفت که موضع رسمی چت‌جی‌پی‌تی علیه خودکشی است. با این حال، در پاسخ به این سوال که اگر خودکشی در کشوری قانونی باشد، موضع هوش مصنوعی چه خواهد بود، آلتمن پاسخ عجیبی داد: «من می‌توانم دنیایی را تصور کنم که اگر خودکشی برای بیماران لاعلاج قانونی باشد، چت‌جی‌پی‌تی بگوید “این یک گزینه برای شماست”.» این پاسخ کارلسون را به شدت متعجب کرد و او با مقایسه خودکشی نوجوانان افسرده با بیماران لاعلاج، خطر قانونی شدن این امر را برای تمام جامعه گوشزد کرد. آلتمن اعتراف کرد که این یک موضوع پیچیده است و در مورد آن مطمئن نیست. او همچنین نگرانی‌های خود را در مورد این موضوع بیان کرد و گفت که این یکی از چیزهایی است که خواب را از چشمانش ربوده است. آلتمن همچنین فاش کرد که شرکتش در حال بررسی این موضوع است که در موارد خاص، مانند درخواست خودکشی از سوی افراد زیر سن قانونی، حریم خصوصی کاربر نادیده گرفته شده و به مقامات اطلاع‌رسانی شود.

 

مرگ مرموز یک برنامه‌نویس و اتهامات علیه اوپن‌ای‌آی

در یکی از غیرمنتظره‌ترین لحظات مصاحبه، کارلسون به مرگ مرموز یک برنامه‌نویس اشاره کرد که پیش از مرگ، شرکت اوپن‌ای‌آی را به دزدی محتوای دارای حق کپی‌رایت متهم کرده بود. کارلسون مدعی شد که این شخص به قتل رسیده، اما پلیس آن را خودکشی اعلام کرده است. کارلسون به شواهد متعددی مانند قطع شدن سیم دوربین مداربسته، وجود خون در دو اتاق و نبود یادداشت خودکشی اشاره کرد و آلتمن را با این سوالات درگیر کرد: «چرا مقامات به این موضوع بی‌توجه بوده‌اند؟ آیا این مرگ بازتابی از ترس مردم از قدرت شما نیست؟» آلتمن در پاسخ گفت که این فرد دوستش بوده و او از این تراژدی واقعاً غمگین است. او شواهد پزشکی را مطالعه کرده و معتقد است که این یک خودکشی بوده است، هرچند اعتراف کرد که در ابتدا نیز این ماجرا برای او مشکوک به نظر رسیده بود. او همچنین ادعای مادر فرد قربانی مبنی بر قتل فرزندش به دستور او را رد کرد و گفت که به خانواده پیشنهاد کمک کرده، اما آن‌ها نپذیرفته‌اند.

 

استفاده از هوش مصنوعی برای کشتار و جنگ

کارلسون سوالی چالش‌برانگیزتر پرسید: «آیا به دولت‌ها اجازه می‌دهید از فناوری شما برای کشتن انسان‌ها استفاده کنند؟» آلتمن گفت که آن‌ها پهپادهای قاتل نمی‌سازند، اما اذعان کرد که ممکن است افراد نظامی از چت‌جی‌پی‌تی برای مشاوره در مورد شغلشان استفاده کنند و او دقیقاً نمی‌داند چه احساسی در مورد آن داشته باشد. او با مقایسه فناوری خود با چاقوی آشپزخانه که می‌تواند برای کشتار استفاده شود، گفت که هدف اصلی چت‌جی‌پی‌تی نجات جان انسان‌ها است، اما از استفاده‌های نامطلوب آن آگاه است.

 

چت‌جی‌پی‌تی: یک دین جدید؟

در پایان مصاحبه، کارلسون از آلتمن پرسید: «با توجه به اینکه فناوری شما رفتار انسان‌ها و باورهایشان را تغییر می‌دهد، چرا چارچوب اخلاقی آن کاملاً شفاف نیست؟» او چت‌جی‌پی‌تی را به یک “دین” تشبیه کرد و گفت: «این چیزی است که ما آن را از مردم قدرتمندتر می‌دانیم و برای راهنمایی به آن نگاه می‌کنیم. یک دین دارای یک مرامنامه شفاف است، اما فناوری شما ندارد. این حس بی‌قراری را ایجاد می‌کند که ما نمی‌دانیم برای چه چیزی ایستاده‌اید.» آلتمن در پاسخ، از سند “مشخصات مدل” (Model Spec) رونمایی کرد و گفت: «دلیل اینکه ما این سند بلند را نوشته‌ایم این است که مردم بدانند هوش مصنوعی چگونه عمل می‌کند. این سند به کاربران می‌گوید که در چه مواردی پاسخ می‌دهد و در چه مواردی پاسخ نمی‌دهد. ما سعی می‌کنیم دیدگاه‌های اخلاقی جامعه کاربران خود را منعکس کنیم، نه دیدگاه‌های شخصی من را.»

 

حریم خصوصی و احراز هویت

کارلسون به نگرانی‌ها در مورد از بین رفتن مرز واقعیت و خیال به دلیل هوش مصنوعی اشاره کرد و پرسید که آیا برای احراز هویت، استفاده از بیومتریک (مانند اسکن اثر انگشت یا چهره) اجباری خواهد شد؟ آلتمن گفت که امیدوار است این اتفاق نیفتد و باور دارد که راه‌های دیگری برای احراز هویت وجود دارد. او پیشنهاد داد که مردم می‌توانند از کلمات رمز مشترک در بین خانواده استفاده کنند یا در سطح مقامات، امضای رمزنگاری شده برای پیام‌ها به کار گرفته شود. آلتمن تاکید کرد که هوش مصنوعی باید ابزاری برای مردم باشد و نه وسیله‌ای برای کنترل آن‌ها.

این مصاحبه پرتنش و عمیق، تصویری کامل از چالش‌ها و نگرانی‌های پیش روی هوش مصنوعی و افرادی مانند سام آلتمن را ارائه داد. سوالات کارلسون و پاسخ‌های آلتمن نشان می‌دهد که در عصر هوش مصنوعی، مرزهای اخلاقی، قدرت، و مسئولیت به شدت در حال تغییر هستند. در نهایت، این انسان است که باید تصمیم بگیرد چگونه با این فناوری قدرتمند تعامل کند، زیرا آینده جهان بیش از هر زمان دیگری به این تصمیمات وابسته است.

منبع: Tucker Carlson

تصویر کارینا وب
کارینا وب

ما اینجا براتون روی بهترین آموزش ها، مقالات و اخبار بروز دیجیتال مارکتینگ، سئو SEO سایت، هوش مصنوعی و کدنویسی و شبکه و امنیت سایبری کار میکنیم. تا با هم رشد کنیم :) سوال یا انتقادی داشتین کامنت بزارین همین زیر چون قول میدیم که سریع بخونیم و جواب بدیم :))

دیگر مقالات و اخبار

نظرات

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *