دانشیار ای تی هوش مصنوعی : مزایا و معایب آن در آینده - دانشیار آی تی

این مطلب به طور کامل به ویژگی هوش مصنوعی : مزایا و معایب آن در زندگی آینده انسان پرداخته است. آینده هوش مصنوعی به کجا میرسد؟ خطرات ابر انسانی هوش مصنوعی چیست؟

مکس تِگ‌مارک، رئیسِ مؤسسه‌ی The Future of Life: «هر چیزی از بشریت که آن را دوست داریم، محصولی از هوش است. درنتیجه با ترکیب هوش بشر و هوش مصنوعی می‌توانیم به گونه‌ای به شکوفایی بشریت کمک کنیم که در تاریخ بی‌سابقه است. البته مادامی که بتوانیم فناوری را سودمند نگه داریم.»

AI (هوش مصنوعی) چیست؟

هوش مصنوعی ((Artificial Intelligence (AI) به سرعت در حال پیشرفت است. SIRI و خودروهای خودران را درنظر بگیرید.
با اینکه فیلم‌های علمی تخیلی اغلب AI را به صورت روبات‌هایی با خصیصه‌های انسانی نشان می‌دهند، اما واقعیت این است که AI می‌تواند شامل موارد بسیاری باشد، مثل الگوریتم‌های جست‌وجوی گوگل، سیستم واتسون (Watson) شرکتِ IBM یا سلاح‌های خودکار.

هوش مصنوعیِ کنونی را AI محدود (یا AI ضعیف) می‌نامند. از این نوع هوش مصنوعی برای انجام وظیفه‌ای ضعیف (مثلاً شناسایی چهره یا جست‌وجوی اینترنت یا راندن یک خودرو) استفاده می‌شود. اما هدف بلند مدت بسیاری از محققین ساخت AI عمومی (AGI یا AI قوی) است.
هوش مصنوعیِ محدود، در انجام وظایف خود عملکردی بهتر از انسان دارد، وظایفی مثل بازی شطرنج یا حل معادلات. AGI از طرفی می‌تواند تقریباً در تمام وظایف شناختی بهتر از انسان عمل کند.

چرا باید درباره‌ی امن بودن AI تحقیق کنیم؟

در حال حاضر، هدف این است که تأثیرات AI را بر جامعه مثبت نگه داریم.
در سال‌های اخیر این مسئله منجر به تحقیقات زیادی در حوزه‌های متنوع شده است، مثل حوزه‌های اقتصادی، حقوقی و موضوعات فنی مثل تأیید (Verification)، اعتبارسنجی (Validity)، امنیت (Security) و کنترل.
با خراب شدن لپ‌تاپ یا هک شدنش شاید کمی ناراحت شوید، اما این مسائل در مورد AI اهمیت بسیار بیشتری دارند. اینکه سیستم هوش‌ مصنوعی همان کاری را، که از او می‌خواهید، برایتان انجام دهد، مسئله‌ای بسیار مهم است.
حالا این وظیفه هرچه می‌خواهد باشد؛ مثلاً کنترل خودرو، هواپیما، دستگاه تنظیم ضربان قلب، سیستم معاملات خودکار یا شبکه‌ی برق رسانی.

اما در بلند مدت پرسش مهم این است: اگر بشر در ماموریت AI قوی موفق شود و سیستم AI در تمام وظایف شناختی بهتر از بشر عمل کند، چه اتفاقی می‌افتد؟
I.J. Good در سال ۱۹۶۵ عنوان کرد که طراحیِ سیستم‌های AI هوشمندتر، خود یک وظیفه‌ی شناختی است. چنین سیستمی مدام می‌تواند خود را بهتر کند.
در این صورت یک انفجار هوش (نوعی از تکینگی فناوری) رخ می‌دهد و هوش انسان بسیار از AI عقب می‌ماند. با اختراع فناوری‌های انقلابی جدید، مثل ابرنبوغ (Superintelligence) ممکن است بتوانیم جنگ، بیماری و فقر را ریشه‌کن کنیم.
خلق AI قوی شاید بزرگترین رویداد تاریخ بشریت باشد. برخی متخصصین نیز نگران‌اند.
آنها می‌گویند شاید این اختراع، به آخرین اختراع بشریت تبدیل شود. مگر اینکه یاد بگیریم چگونه پیش از ابرنابغه شدن AI، اهداف او را با اهداف خودمان یکی کنیم.

برخی معتقند که آیا اصلا رسیدن به AI قوی شدنی است؟ برخی نیز اصرار دارند که خلق AI فوق‌هوشمند حتماً به نفع همه است.
در این مقاله این دو مورد را در نظر می‌گیریم، اما مورد دیگری نیز وجود دارد. اینکه یک سیستم هوش مصنوعی می‌تواند عمدی یا غیرعمدی موجب تلفات زیادی شود.
راه حل تحقیقات است. این تحقیقات به ما کمک می‌کنند تا بهتر این پیشامدهای ناگوار را بشناسیم و از وقوع آنها در آینده جلوگیری کنیم. در این صورت می‌توانیم با دوری از مشکلات AI، از فوایدش بهره ببریم.

پیشنهاد دانشیار آی تی به شما

اینترنت اشیا چیست؟

خواندن مطلب

AI چه خطراتی می‌تواند داشته باشد؟

بیشتر محققین بر این باورند که AI فوق‌هوشمند احتمالاً احساسات انسانی مثل عشق یا تنفر را ندارد. در نتیجه دلیلی ندارد که انتظار داشته باشیم عمداً خیراندیش یا بداندیش باشد.
درعوض وقتی به خطرناک بودن AI فکر می‌کنیم، دو سناریو اصلی مطرح می‌شوند:

  1. AI به گونه‌ای برنامه‌نویسی شود که عملی ویرانگر انجام دهد

سلاح‌های خودکار، سیستم‌های هوش مصنوعی‌ای هستند که برای کشتن برنامه‌ریزی شده‌اند. اگر این سلاح‌ها به دست اشخاص نادرست بیفتند، خساراتی جبران‌ناپذیر برجا می‌گذارند.
از طرفی، یک نسل از سلاح‌های AI می‌تواند سهواً منجر به یک جنگ AI شود و تلفات زیادی داشته باشد.
این سلاح‌ها به گونه‌ای طراحی شده‌اند که به سختی “خاموش” می‌شوند تا دشمن نتواند به سادگی آنها را خنثی کند، در نتیجه ممکن است در چنین شرایطی، انسان نتواند شرایط را کنترل کند.
این ریسکی است که در AI ضعیف نیز با آن سروکار داریم، اما میزان خطر با افزایش سطح هوش و خودمختاری AI افزایش می‌یابد.

  1. AI به گونه‌ای برنامه‌نویسی شود که عملی مفید انجام دهد، اما متدی ویرانگر را برای رسیدن به هدفش ایجاد کند

این اتفاق زمانی رخ می‌دهد که نتوانیم اهداف هوش مصنوعی را با اهداف خود یکی کنیم که کاری بسیار مشکل است.
مثلاً فرض کنید از خودرو هوشمند و مطیع خود بخواهید که در سریع‌ترین زمان ممکن شما را به فرودگاه برساند.
خودرو همین کار را می‌کند و درحالی که هزاران پلیس می‌خواهند ماشین شما را متوقف کنند و خودتان نیز وضعیت مناسبی ندارید، به فرودگاه می‌رسید.
درواقع  چنین چیزی را نمی‌خواستید، اما با کلمات چنین درخواستی را از خودرو کردید. اگر یک پروژه‌ی مهندسیِ ژئوِ نامناسب را به یک سیستم AI فوق هوشمند بدهیم، ممکن است به اکوسیستم صدمات جدی وارد کند و تلاش‌های انسان برای متوقف کردنش را تهدیدی برای جهان درنظر بگیرد. تهدیدی که باید با آن مقابله کند.

همان طور که این مثال‌ها نشان می‌دهند، همه نگران شایستگی AI هستند، نه بدخواه بودن آن.
هوش مصنوعی فوق هوشمند در به دست آوردن اهدافش بسیار خوب عمل می‌کند، اما اگر اهدافش با اهداف ما یکی نباشد، با مشکلی بزرگ مواجه می‌شویم.
شاید شما شخصی نباشید که بسیار از مورچه‌ها بدتان بیاید و از روی عمد و بدخواهی با پا لهشان کنید، اما وقتی مسئول یک پروژه‌ی انرژیِ سبزِ برق‌ آبی هستید و مورتپه‌ای در مسیر پروژه باشد….، بیچاره مورچه‌ها.
یکی از کلیدی‌ترین اهداف در تحقیقات امن بودن AI این است که هوش مصنوعی هرگز انسان را مثل آن مورچه‌های بیچاره نبیند.

پیشنهاد دانشیار آی تی به شما

پردازش زبان طبیعی (NLP)

خواندن مطلب

چرا توجهات بسیاری اخیراً به موضوع امن بودن هوش مصنوعی جلب شده است؟

Stephen Hawking، Elon Musk، Steve Wozniak، Bill Gates و آدم‌های سرشناس دیگری در حوزه‌ی علوم و فناوری درباره‌ی خطرات ناشی از AI در رسانه‌ها ابراز نگرانی کرده‌اند و محققین بسیاری در حوزه‌ی هوش مصنوعی نیز با آنها موافقند.
چرا ناگهان چنین موضوعی تیتر اصلی اخبار شده است؟

قرن‌ها پیش، تصور نمی‌شد که رؤیای رسیدن به AI قوی هرگز محقق شود.
با این حال، با موفقیت‌های اخیر، بسیاری از مشکلاتی که پنج سال قبل محققین تصور می‌کردند دهه‌ها با حلشان فاصله داریم، حل شدند و این بسیاری از متخصصین را مجاب کرد که ممکن است تنها چند سال با رسیدن به AI فوق‌هوشمند فاصله داشته باشیم.
با اینکه متخصصین بسیاری معتقدند که قرن‌ها با AI‌ای قابل مقایسه با توانایی‌های انسان فاصله داریم، اما در کنفرانس پورتوریکو ۲۰۱۵ بسیاری پیش‌بینی کردند که تا پیش از ۲۰۶۰ به آن دست می‌یابیم.
بهتر است تحقیقات مربوط به امن بودن آن را از همین حالا شروع کنیم، چون ممکن است این تحقیقات دهه‌ها طول بکشند.

از آنجایی که AI هوشمندتر از هر انسانی خواهد شد، روشی مطمئن برای پیش‌بینی رفتار آن نداریم.
نمی‌توانیم از فناوری‌های قبلی به عنوان پیش‌زمینه استفاده کنیم، چون تاکنون نتوانسته‌ایم عمداً یا سهواً چیزی خلق کنیم که از خودمان هوشمندتر باشد.
تکامل‌یافته‌ی خودمان، شاید بهترین مثال از چیزی باشد که در آینده با آن روبه‌رو می‌شویم. قوی‌ترین، سریع‌ترین یا بزرگ‌ترین موجود بودن دلیل سلطه‌ی انسان بر زمین نیست. باهوش بودن دلیل اصلی است.
اگر دیگر باهوش‌ترین نباشیم، می‌توانیم باز هم بر همه ریاست کنیم؟

دوره‌های مرتبط در دانشیار آی تی

رایج‌ترین باورها درباره‌ی هوش مصنوعی پیشرفته

این روزها، آینده‌ی هوش مصنوعی و تأثیر آن بر بشریت به موضوع بحثی جذاب بدل شده است. موضوعات بسیاری که متخصصین مطرح جهان نیز پاسخی برای آنها ندارند.
مثل، تأثیر هوش مصنوعی بر بازار کار در آینده، آیا اصلاً هوش مصنوعی با قابلیت‌هایی معادل انسان تولید می‌شود و اگر پاسخ مثبت است، کِی؟، آیا این اختراع منجر به یک انفجار هوش (نوعی از تکینگی فناوری) می‌شود و در آخر اینکه آیا باید از این موضوع استقبال کنیم یا بترسیم؟
اما برخی مردم به دلیل عدم درک درست، موضوعاتِ خسته‌کننده‌یِ زیادی را نیز مطرح می‌کنند. در ادامه می‌خواهیم درباره‌ی برخی از این باورهای رایج توضیحاتی دهیم تا به جای درگیرِ موضوعات نادرست شدن، بیشتر روی موضوعات جالب و درست در این زمینه متمرکز شویم.

افسانه های هوش مصنوعی

باور: حتماً تا سال ۲۱۰۰ به ابرنبوغ دست می‌یابیم. رسیدن به ابر نبوغ تا سال ۲۱۰۰ غیر ممکن است. واقعیت: ممکن است دهه‌ها یا قرن‌ها بعد به آن دست یابیم، یا اصلا عملی نشود. متخصصین AI پاسخی دقیق ندارند و نمی‌دانیم. 

باور: تنها اشخاص بی‌اطلاع از AI نگرانند. واقعیت: بسیاری از محققین AI برتر جهان نگرانند. 

نگرانی نادرست: AI شرور می‌شود. AI آگاه می‌شود. نگرانی درست: AIای شایسته شمرده شود که اهدافش با ما یکی نیست. 

باور: روبات‌ها نگرانی اصلی هستند. واقعیت: هوش نامطابق نگرانی اصلی است: نیازی به بدن ندارد، یک اتصال اینترنت کافی است. 

باور: AI نمی‌تواند انسان را کنترل کند. واقعیت: هوش موجب کنترل می‌شود: ما به دلیل باهوش‌تر بودن ببرها را کنترل می کنیم. 

باور: ماشین‌ها نمی‌توانند هدف داشته باشند. واقعیت: یک موشک گرمایشی هدف دارد. 

نگرانی نادرست: فقط چند سال با ابرنبوغ فاصله داریم. نگرانی درست: حداقل دهه‌ها با آن فاصله داریم، اما ممکن است امن کردنش نیز همین‌قدر طول بکشد.

باورهایی درباره‌ی زمان پیدایش هوش مصنوعی پیشرفته

اولین باور به زمان پیدایش مربوط می‌شود: چقدر طول می‌کشد تا ماشین‌ها از هوش انسان پیشی بگیرند؟ یکی از باورهای غلط در این زمینه این است که زمان دقیق را می‌دانیم.

یکی از باورهای معروف این است که در همین قرن به هوش مصنوعی ابرانسانی دست می‌یابیم. در واقع تاریخ پر است از ادعاهای این چنینی.
چرا خبری از نیروگاه‌های انرژی همجوشی و اتومبیل‌های پرنده‌ای که قرار بود تا الآن داشته باشیم، نیست؟
محققین و حتی برخی از بنیانگذاران حوزه‌ی AI، ادعاهای اغراق‌آمیزی در گذشته کرده‌اند.
مثلا John McCarthy (که خالق عبارت “هوش مصنوعی” است)، Marvin Minsky، Nathaniel Rochester و Claude Shannon این پیش‌بینی بسیار خوشبینانه را درباره‌ی دستاوردهای دو ماه آینده‌ی کامپیوترهای عصر حجری نوشتند:
“پیشنهاد می‌کنیم که در طول تابستان ۱۹۵۶، ۱۰ محقق، مطالعاتی دو ماهه درباره‌ی هوش مصنوعی در کالج Dartmouth داشته باشند.
تلاش خواهیم کرد کاری کنیم تا ماشین‌ها از زبان استفاده کنند، ایده بدهند و مفهوم‌سازی کنند، مسائلی مختص بشر را حل و خودشان را بهتر کنند.
فکر می‌کنیم اگر گروهی از متخصصین مناسب، در کنار هم و در طول یک تابستان روی این موضوعات کار کنند، پیشرفتی قابل ملاحظه در یکی از این مشکلات حاصل خواهد شد.”

از سوی دیگر، یک باور مخالف می‌گوید که هوش مصنوعی ابرانسانی را در این قرن به دست نمی‌آوریم. محققین تخمین‌های متغیری از فاصله‌ی ما تا رسیدن به ابرانسان ارائه داده‌اند.
اما با توجه به سابقه‌ی بد چنین پیش‌بینی‌هایی که با دید بد به فناوری نگاه می‌کنند، با قطعیت نمی‌توانیم بگوییم که احتمال رسیدن به آن در قرن اخیر ۰ است.
مثلاً Ernest Rutherford، که گفته می‌شود یکی از بهترین فیزیکدان‌های هسته‌ای در زمان خودش بوده، در سال  ۱۹۳۳ و ۲۴ ساعت قبل از اختراعِ واکنش زنجیره‌ای هسته‌ای زیلارد، عنوان کرد که انرژی هسته‌ای “مهتاب” است.
و در سال ۱۹۵۶، ستاره‌شناس Royal Richard Woolley سفر بین‌ستاره‌ای را
Utter Bilge نامید.
اما یکی از باورها این است که هوش مصنوعی ابرانسانی هرگز عرضه نمی‌شود، چون از نظر فیزیکی رسیدن به آن غیرممکن است. فیزیک‌دان‌ها می‌دانند مغز از کوارک و الکترون تشکیل شده است.
این کوارک‌ها و الکترون‌ها به گونه‌ای در کنار هم قرار گرفته‌اند که مانند یک کامپیوتر قدرتمند عمل می‌کنند. قانون فیزیکی نداریم که بگوید نمی‌توانیم Blob‌های کوارکی هوشمند‌تر بسازیم.

در طی تحقیقاتی از محققین هوش مصنوعی این سؤال پرسیده شد: به نظر آنها و با احتمال ۵۰%، چند سال تا رسیدن به هوش مصنوعی با توانایی‌هایی در سطح انسان فاصله داریم؟
همه‌ی این تحقیقات نتایجی مشابه دارند: متخصصین برتر جهان با هم اختلاف نظر دارند و جواب دقیق را نمی‌دانند، پس نمی‌دانیم.
مثلاً، در یک نظرسنجی در کنفرانس AI پورتوریکو ۲۰۱۵، میانگین پاسخ‌های تا سال ۲۰۴۵ بود، اما محققینی هم بودند که نظرشان صدها سال بعد بود.

مردمی هم که نگران هوش مصنوعی هستند، فکر می‌کنند که فقط چند سالی با آن فاصله داریم.
در واقع، بیشتر محققینی که اعلام کرده‌اند نگران هوش مصنوعی ابرانسان هستند، حدس می‌زنند که هنوز دهه‌ها تا رسیدن به آن فاصله داریم.
اما اعتقاد دارند که چون هنوز ۱۰۰% مطمئن نیستیم که در این قرن به آن نمی‌رسیم، پس بهتر است که تحقیقات مربوط به امن بودن AI را آغاز کنیم تا آمادگی لازم را پیدا کنیم.
بسیاری از معضلات مربوط به امن بودنِ AI با توانایی‌هایی در سطح انسان، آنقدر پیچیده و مشکل هستند که سال‌ها طول می‌کشد تا حل شوند. پس بهتر است که تا وقت داریم تحقیقات را شروع کنیم.

دوره‌های مرتبط در دانشیار آی تی

باورهایی درباره‌ی اختلاف نظرها در هوش مصنوعی پیشرفته

یکی دیگر از باورهای غلط این است که تنها اشخاصی که AI را نمی‌شناسند و چیزی از آن نمی‌دانند، نگران AI و خواستار تحقیقاتی در زمینه‌ی امن بودن آن هستند.
وقتی Stuart Russell، نویسنده‌ی کتاب Standard AI، این موضوع را در سخنرانی کنفرانس پورتوریکو خود عنوان کرد، حاضرین با صدای بلند خندیدند.
باور غلط دیگر این است که محققین درباره‌ی تحقیقاتِ امن بودن AI بسیار با هم اختلاف نظر دارند.
در واقع، لازم نیست کسی باور داشته باشد که احتمال خطرناک بودن AI بسیار بالاست تا از تحقیقات حمایت کند.
تنها احتمالی غیرقابل چشم پوشی کافی است. مالکی که خانه‌اش را بیمه‌ی می‌کند، با درنظر گرفتن همین احتمال کم آتش‌سوزی این کار را انجام می‌دهد.

به نظر می‌رسد که رسانه‌ها اختلاف نظرها در این مورد را شدیدتر از واقعیت نشان داده‌اند.
به هر حال، با ترساندن، فروش حاصل می‌شود. مردم از مقالاتی با متونی عجیب و غریب که خبر از آخرالزمان می‌دهند، نسبت به مقالات عادی بازدید و استقبال بیشتری می‌کنند.
در نتیجه، دو شخصی که فقط با توجه به حرف‌ رسانه‌ها موضع هم را می‌دانند، ممکن است فکر کنند اختلاف نظر زیادی با هم دارند. در حالی که واقعیت چیز دیگری است.
برای مثال، یک شخص مخالف فناوری، که فقط در یک روزنامه‌ی بریتانیایی درباره‌ی موضع بیل گیتس خوانده است، ممکن است به اشتباه فکر کند بیل گیتس باور دارد ابرهوش به زودی رخ می‌دهد.
همین‌طور، کسی که موافق AI است و چیزی از موضع Andrew Ng نمی‌داند و تنها سخنی از او درباره‌ی ازدیاد جمعیت مریخ خوانده است، ممکن است فکر کند که Andrew به امن بودن AI اهمیت نمی‌دهد، که اینطور نیست.
درواقع چون Ng معتقد است فرصت بیشتری تا رسیدن به AI پیشرفته داریم، ترجیح می‌دهد اولویتش مشکلات کوتاه مدت AI باشد نه بلند مدت.

بهترین زبان‌های برنامه نویسی

پیشنهاد دانشیار آی تی به شما

بهترین زبان‌‌ های برنامه نویسی در ۲۰۱۹: ۱۰ زبان برتر برای یادگیری

خواندن مطلب

باورهایی درباره‌ی خطرات AI ابرانسانی

بسیاری از محققین AI با دیدن این تیتر خبری عصبی می‌شوند: “استیون هاوکینگ هشدار داد که قیام روبات‌ها می‌تواند برای بشریت فاجعه‌بار باشد.” تعداد مقالاتِ مشابه این کم نیست.
در این مقالات معمولاً یک روبات با چهره‌ای ترسناک اسلحه‌ای در دست دارد.
این مقالات هشدار می‌دهند که باید نگران قیام روبات‌ها باشیم، چون روبات‌ها آگاه و شریر می‌شوند و قصد جان همه‌ی ما را می‌کنند.
از طرفی این مقالات بسیار جالبند، چون به سناریوهایی می‌پردازند که محققین AI نگران آنها نیستند. این سناریوها سه باور غلط را در خود دارند:
نگرانی بایت آگاهی، شرارت و روبات‌ها.

اگر در جاده‌ای رانندگی کنید، یک تجربه‌ی ذهنی از رنگ، صدا و غیره دارید. اما آیا یک خودرو خودران نیز چنین تجربیاتی در ذهن دارد؟
اصلاً یک خودرو خودران بودن حسی دارد؟ اگرچه معمای هوشیاری خودش موضوع جالبی است، اما ربطی به خطرات AI ندارد.
اگر با یک خودرو خودران تصادف کنید، احساس داشتن یا نداشتن خودرو چه چیزی را عوض می‌کند؟ چیزی که روی ما انسان‌ها تأثیر می‌گذارد، کاری است که AI فوق هوشمند انجام می‌دهد، نه احساساتی که در ذهن دارد.

ترس از شرارت ماشین‌ها نیز باور غلط دیگری است. نگرانی اصلی شایستگی است، نه شرارت. یک سیستم AI فوق هوشمند خیلی خوب می‌تواند به اهدافش دست پیدا کند.
این اهداف چه باشند فرقی نمی‌کند. تنها کافی است که مطمئن شویم هدف‌ AI با هدف ما یکی است.
انسان‌ها به طور کلی از مورچه‌ها بدشان نمی‌آید، اما ما باهوش‌تر از مورچه‌هاییم.
اگر بخواهیم یک سد هیدروالکتریکی بسازیم و یک مورتپه در مسیر باشد….خُب، بیچاره مورچه‌ها. جنبش AI سودمند نمی‌خواهد انسان جایگزین آن مورچه‌های بیچاره شود.

باور غلطِ هوشیاری به نوعی مشابه این باور است که ماشین‌ها نمی‌توانند هدف داشته باشند. هدف در ماشین‌ها به معنی نشان دادن رفتارهای هدف‌گراست.
رفتار یک موشک گرمایشی به صورت هدف آن درنظر گرفته می‌شود: برخورد به یک هدف.
پس اگر هدف یک ماشین ضد شماست و از این موضوع نگرانید، هدف ماشین است که آزاتان می‌دهد و نمی‌توانید بگویید که ماشین آگاه است و برای خودش هدف تعیین می‌کند.
اگر یک موشک گرمایشی تعقیب‌تان کند، نمی‌گویید: “نگران نیستم، چون ماشین‌ها هدف ندارند!”

واقعاً باید با Rodney Brooks و بسیاری از پیشگامان روباتیک دیگر همدردی کنیم که از سوی مجلات به‌طور ناعادلانه‌ای شیطانی نشان داده ‌می‌شوند.
چون برخی از روزنامه‌نگاران فقط درباره‌ی روبات‌ها می‌نویسند و بسیاری از مقالاتشان درباره‌ی هیولاهایی آهنی با چشمانی قرمز است.
درواقع، نگرانی اصلی جنبش AI سودمند روبات نیست، بلکه خود هوش است: مخصوصاً، هوشی که اهدافش با ما مطابقت نداشته باشد.
چنین هوش ابرانسانیِ مخالفی، برای دردسرسازی به یک بدن آهنی نیاز ندارد، یک اتصال ساده‌ی اینترنت کافی است.
این هوش می‌تواند در بازار اقتصادی باهوش‌تر عمل کند، اختراعات بهتری از محققین داشته باشد، رهبران سیاسی را گول بزند و سلاح‌هایی طراحی کند که ما حتی قادر به درکشان نیستیم.
حتی اگر ساخت روبات‌های فیزیکی غیرممکن باشد، یک AI فوق هوشمند و سرمایه‌دار می‌تواند به راحتی به انسان‌های زیادی پول بپردازد و راضی‌شان کند که سهواً دست به خواسته‌هایش بزنند.

باور غلط درباره‌ی روبات‌ها هم شبیه این باور است که ماشین‌ها نمی‌توانند انسان را کنترل کنند.
هوش موجب کنترل می‌شود: انسان چون باهوش‌تر است، می‌تواند ببرها را کنترل ‌کند. ما قوی‌تر از ببر نیستیم. درنتیجه اگر ما باهوش‌ترین موجودِ این سیاره نباشیم، ممکن است دیگر رئیس هم نباشیم.

باورهای جالب

اگر وقت‌مان را صرف باورهای غلط بالا نکنیم، می‌توانیم روی باورهایی درست و جالب متمرکز شویم که حتی متخصصین نیز پاسخی برایشان ندارند. چه آینده‌ای دوست دارید؟ آیا باید سلاح‌هایی خودکار و کشنده بسازیم؟ دوست دارید اتوماسیون مشاغل چگونه اتفاق بیفتد؟ برای شغل کودکان امروز، چه سفارشاتی دارید؟ آیا دوست دارید که شغل‌هایی جدید، جایگزین قبلی‌ها شوند؟
یا جامعه‌ای بدون شغل داشته باشیم، که همه در آن زندگیِ آسوده‌ای دارند و از ثروتی که ماشین آن را به‌دست آورده، استفاده می‌کنند؟
آیا دوست دارید کمی بعدتر یک زندگی فوق هوشمند داشته باشیم و آن را در جهانمان گسترش دهیم؟ آیا ما ماشین‌های هوشمند را کنترل می‌کنیم، یا آنها ما را؟
آیا ماشین‌های هوشمند جای ما را می‌گیرند؟ یا کنارمان زندگی می‌کنند؟ یا با ما ادغام می‌شوند؟ انسان بودن در عصر هوش مصنوعی به چه معناست؟ دوست دارید انسان بودن چگونه باشد و راه عملی کردن آن در آینده چیست؟

فیلم آموزش کاربرد هوش مصنوعی پیشرفته در آنریل انجین:

در صورتی مطلب مزایا و معایب هوش مصنوعی برای شما مفید بوده است:

برای یادگیری بیشتر میتوانید دوره های آنلاین آموزش هوش مصنوعی را مشاهده نمایید.

 

دوره‌های مرتبط در دانشیار آی تی

 

به این پست امتیاز دهید.
بازدید : 636 views بار دسته بندی : برنامه‌نویسی تاريخ : 18 دسامبر 2022 به اشتراک بگذارید :
دیدگاه کاربران
    • دیدگاه ارسال شده توسط شما ، پس از تایید توسط مدیران سایت منتشر خواهد شد.
    • دیدگاهی که به غیر از زبان فارسی یا غیر مرتبط با مطلب باشد منتشر نخواهد شد.

برچسب ها