این مطلب به طور کامل به ویژگی هوش مصنوعی : مزایا و معایب آن در زندگی آینده انسان پرداخته است. آینده هوش مصنوعی به کجا میرسد؟ خطرات ابر انسانی هوش مصنوعی چیست؟
مکس تِگمارک، رئیسِ مؤسسهی The Future of Life: «هر چیزی از بشریت که آن را دوست داریم، محصولی از هوش است. درنتیجه با ترکیب هوش بشر و هوش مصنوعی میتوانیم به گونهای به شکوفایی بشریت کمک کنیم که در تاریخ بیسابقه است. البته مادامی که بتوانیم فناوری را سودمند نگه داریم.»
AI (هوش مصنوعی) چیست؟
هوش مصنوعی ((Artificial Intelligence (AI) به سرعت در حال پیشرفت است. SIRI و خودروهای خودران را درنظر بگیرید.
با اینکه فیلمهای علمی تخیلی اغلب AI را به صورت روباتهایی با خصیصههای انسانی نشان میدهند، اما واقعیت این است که AI میتواند شامل موارد بسیاری باشد، مثل الگوریتمهای جستوجوی گوگل، سیستم واتسون (Watson) شرکتِ IBM یا سلاحهای خودکار.
هوش مصنوعیِ کنونی را AI محدود (یا AI ضعیف) مینامند. از این نوع هوش مصنوعی برای انجام وظیفهای ضعیف (مثلاً شناسایی چهره یا جستوجوی اینترنت یا راندن یک خودرو) استفاده میشود. اما هدف بلند مدت بسیاری از محققین ساخت AI عمومی (AGI یا AI قوی) است.
هوش مصنوعیِ محدود، در انجام وظایف خود عملکردی بهتر از انسان دارد، وظایفی مثل بازی شطرنج یا حل معادلات. AGI از طرفی میتواند تقریباً در تمام وظایف شناختی بهتر از انسان عمل کند.
چرا باید دربارهی امن بودن AI تحقیق کنیم؟
در حال حاضر، هدف این است که تأثیرات AI را بر جامعه مثبت نگه داریم.
در سالهای اخیر این مسئله منجر به تحقیقات زیادی در حوزههای متنوع شده است، مثل حوزههای اقتصادی، حقوقی و موضوعات فنی مثل تأیید (Verification)، اعتبارسنجی (Validity)، امنیت (Security) و کنترل.
با خراب شدن لپتاپ یا هک شدنش شاید کمی ناراحت شوید، اما این مسائل در مورد AI اهمیت بسیار بیشتری دارند. اینکه سیستم هوش مصنوعی همان کاری را، که از او میخواهید، برایتان انجام دهد، مسئلهای بسیار مهم است.
حالا این وظیفه هرچه میخواهد باشد؛ مثلاً کنترل خودرو، هواپیما، دستگاه تنظیم ضربان قلب، سیستم معاملات خودکار یا شبکهی برق رسانی.
اما در بلند مدت پرسش مهم این است: اگر بشر در ماموریت AI قوی موفق شود و سیستم AI در تمام وظایف شناختی بهتر از بشر عمل کند، چه اتفاقی میافتد؟
I.J. Good در سال ۱۹۶۵ عنوان کرد که طراحیِ سیستمهای AI هوشمندتر، خود یک وظیفهی شناختی است. چنین سیستمی مدام میتواند خود را بهتر کند.
در این صورت یک انفجار هوش (نوعی از تکینگی فناوری) رخ میدهد و هوش انسان بسیار از AI عقب میماند. با اختراع فناوریهای انقلابی جدید، مثل ابرنبوغ (Superintelligence) ممکن است بتوانیم جنگ، بیماری و فقر را ریشهکن کنیم.
خلق AI قوی شاید بزرگترین رویداد تاریخ بشریت باشد. برخی متخصصین نیز نگراناند.
آنها میگویند شاید این اختراع، به آخرین اختراع بشریت تبدیل شود. مگر اینکه یاد بگیریم چگونه پیش از ابرنابغه شدن AI، اهداف او را با اهداف خودمان یکی کنیم.
برخی معتقند که آیا اصلا رسیدن به AI قوی شدنی است؟ برخی نیز اصرار دارند که خلق AI فوقهوشمند حتماً به نفع همه است.
در این مقاله این دو مورد را در نظر میگیریم، اما مورد دیگری نیز وجود دارد. اینکه یک سیستم هوش مصنوعی میتواند عمدی یا غیرعمدی موجب تلفات زیادی شود.
راه حل تحقیقات است. این تحقیقات به ما کمک میکنند تا بهتر این پیشامدهای ناگوار را بشناسیم و از وقوع آنها در آینده جلوگیری کنیم. در این صورت میتوانیم با دوری از مشکلات AI، از فوایدش بهره ببریم.
پیشنهاد دانشیار آی تی به شما
اینترنت اشیا چیست؟
خواندن مطلب
AI چه خطراتی میتواند داشته باشد؟
بیشتر محققین بر این باورند که AI فوقهوشمند احتمالاً احساسات انسانی مثل عشق یا تنفر را ندارد. در نتیجه دلیلی ندارد که انتظار داشته باشیم عمداً خیراندیش یا بداندیش باشد.
درعوض وقتی به خطرناک بودن AI فکر میکنیم، دو سناریو اصلی مطرح میشوند:
-
AI به گونهای برنامهنویسی شود که عملی ویرانگر انجام دهد
سلاحهای خودکار، سیستمهای هوش مصنوعیای هستند که برای کشتن برنامهریزی شدهاند. اگر این سلاحها به دست اشخاص نادرست بیفتند، خساراتی جبرانناپذیر برجا میگذارند.
از طرفی، یک نسل از سلاحهای AI میتواند سهواً منجر به یک جنگ AI شود و تلفات زیادی داشته باشد.
این سلاحها به گونهای طراحی شدهاند که به سختی “خاموش” میشوند تا دشمن نتواند به سادگی آنها را خنثی کند، در نتیجه ممکن است در چنین شرایطی، انسان نتواند شرایط را کنترل کند.
این ریسکی است که در AI ضعیف نیز با آن سروکار داریم، اما میزان خطر با افزایش سطح هوش و خودمختاری AI افزایش مییابد.
-
AI به گونهای برنامهنویسی شود که عملی مفید انجام دهد، اما متدی ویرانگر را برای رسیدن به هدفش ایجاد کند
این اتفاق زمانی رخ میدهد که نتوانیم اهداف هوش مصنوعی را با اهداف خود یکی کنیم که کاری بسیار مشکل است.
مثلاً فرض کنید از خودرو هوشمند و مطیع خود بخواهید که در سریعترین زمان ممکن شما را به فرودگاه برساند.
خودرو همین کار را میکند و درحالی که هزاران پلیس میخواهند ماشین شما را متوقف کنند و خودتان نیز وضعیت مناسبی ندارید، به فرودگاه میرسید.
درواقع چنین چیزی را نمیخواستید، اما با کلمات چنین درخواستی را از خودرو کردید. اگر یک پروژهی مهندسیِ ژئوِ نامناسب را به یک سیستم AI فوق هوشمند بدهیم، ممکن است به اکوسیستم صدمات جدی وارد کند و تلاشهای انسان برای متوقف کردنش را تهدیدی برای جهان درنظر بگیرد. تهدیدی که باید با آن مقابله کند.
همان طور که این مثالها نشان میدهند، همه نگران شایستگی AI هستند، نه بدخواه بودن آن.
هوش مصنوعی فوق هوشمند در به دست آوردن اهدافش بسیار خوب عمل میکند، اما اگر اهدافش با اهداف ما یکی نباشد، با مشکلی بزرگ مواجه میشویم.
شاید شما شخصی نباشید که بسیار از مورچهها بدتان بیاید و از روی عمد و بدخواهی با پا لهشان کنید، اما وقتی مسئول یک پروژهی انرژیِ سبزِ برق آبی هستید و مورتپهای در مسیر پروژه باشد….، بیچاره مورچهها.
یکی از کلیدیترین اهداف در تحقیقات امن بودن AI این است که هوش مصنوعی هرگز انسان را مثل آن مورچههای بیچاره نبیند.
پیشنهاد دانشیار آی تی به شما
پردازش زبان طبیعی (NLP)
خواندن مطلب
چرا توجهات بسیاری اخیراً به موضوع امن بودن هوش مصنوعی جلب شده است؟
Stephen Hawking، Elon Musk، Steve Wozniak، Bill Gates و آدمهای سرشناس دیگری در حوزهی علوم و فناوری دربارهی خطرات ناشی از AI در رسانهها ابراز نگرانی کردهاند و محققین بسیاری در حوزهی هوش مصنوعی نیز با آنها موافقند.
چرا ناگهان چنین موضوعی تیتر اصلی اخبار شده است؟
قرنها پیش، تصور نمیشد که رؤیای رسیدن به AI قوی هرگز محقق شود.
با این حال، با موفقیتهای اخیر، بسیاری از مشکلاتی که پنج سال قبل محققین تصور میکردند دههها با حلشان فاصله داریم، حل شدند و این بسیاری از متخصصین را مجاب کرد که ممکن است تنها چند سال با رسیدن به AI فوقهوشمند فاصله داشته باشیم.
با اینکه متخصصین بسیاری معتقدند که قرنها با AIای قابل مقایسه با تواناییهای انسان فاصله داریم، اما در کنفرانس پورتوریکو ۲۰۱۵ بسیاری پیشبینی کردند که تا پیش از ۲۰۶۰ به آن دست مییابیم.
بهتر است تحقیقات مربوط به امن بودن آن را از همین حالا شروع کنیم، چون ممکن است این تحقیقات دههها طول بکشند.
از آنجایی که AI هوشمندتر از هر انسانی خواهد شد، روشی مطمئن برای پیشبینی رفتار آن نداریم.
نمیتوانیم از فناوریهای قبلی به عنوان پیشزمینه استفاده کنیم، چون تاکنون نتوانستهایم عمداً یا سهواً چیزی خلق کنیم که از خودمان هوشمندتر باشد.
تکاملیافتهی خودمان، شاید بهترین مثال از چیزی باشد که در آینده با آن روبهرو میشویم. قویترین، سریعترین یا بزرگترین موجود بودن دلیل سلطهی انسان بر زمین نیست. باهوش بودن دلیل اصلی است.
اگر دیگر باهوشترین نباشیم، میتوانیم باز هم بر همه ریاست کنیم؟
دورههای مرتبط در دانشیار آی تی
رایجترین باورها دربارهی هوش مصنوعی پیشرفته
این روزها، آیندهی هوش مصنوعی و تأثیر آن بر بشریت به موضوع بحثی جذاب بدل شده است. موضوعات بسیاری که متخصصین مطرح جهان نیز پاسخی برای آنها ندارند.
مثل، تأثیر هوش مصنوعی بر بازار کار در آینده، آیا اصلاً هوش مصنوعی با قابلیتهایی معادل انسان تولید میشود و اگر پاسخ مثبت است، کِی؟، آیا این اختراع منجر به یک انفجار هوش (نوعی از تکینگی فناوری) میشود و در آخر اینکه آیا باید از این موضوع استقبال کنیم یا بترسیم؟
اما برخی مردم به دلیل عدم درک درست، موضوعاتِ خستهکنندهیِ زیادی را نیز مطرح میکنند. در ادامه میخواهیم دربارهی برخی از این باورهای رایج توضیحاتی دهیم تا به جای درگیرِ موضوعات نادرست شدن، بیشتر روی موضوعات جالب و درست در این زمینه متمرکز شویم.
باور: حتماً تا سال ۲۱۰۰ به ابرنبوغ دست مییابیم. رسیدن به ابر نبوغ تا سال ۲۱۰۰ غیر ممکن است. واقعیت: ممکن است دههها یا قرنها بعد به آن دست یابیم، یا اصلا عملی نشود. متخصصین AI پاسخی دقیق ندارند و نمیدانیم.
باور: تنها اشخاص بیاطلاع از AI نگرانند. واقعیت: بسیاری از محققین AI برتر جهان نگرانند.
نگرانی نادرست: AI شرور میشود. AI آگاه میشود. نگرانی درست: AIای شایسته شمرده شود که اهدافش با ما یکی نیست.
باور: روباتها نگرانی اصلی هستند. واقعیت: هوش نامطابق نگرانی اصلی است: نیازی به بدن ندارد، یک اتصال اینترنت کافی است.
باور: AI نمیتواند انسان را کنترل کند. واقعیت: هوش موجب کنترل میشود: ما به دلیل باهوشتر بودن ببرها را کنترل می کنیم.
باور: ماشینها نمیتوانند هدف داشته باشند. واقعیت: یک موشک گرمایشی هدف دارد.
نگرانی نادرست: فقط چند سال با ابرنبوغ فاصله داریم. نگرانی درست: حداقل دههها با آن فاصله داریم، اما ممکن است امن کردنش نیز همینقدر طول بکشد.
باورهایی دربارهی زمان پیدایش هوش مصنوعی پیشرفته
اولین باور به زمان پیدایش مربوط میشود: چقدر طول میکشد تا ماشینها از هوش انسان پیشی بگیرند؟ یکی از باورهای غلط در این زمینه این است که زمان دقیق را میدانیم.
یکی از باورهای معروف این است که در همین قرن به هوش مصنوعی ابرانسانی دست مییابیم. در واقع تاریخ پر است از ادعاهای این چنینی.
چرا خبری از نیروگاههای انرژی همجوشی و اتومبیلهای پرندهای که قرار بود تا الآن داشته باشیم، نیست؟
محققین و حتی برخی از بنیانگذاران حوزهی AI، ادعاهای اغراقآمیزی در گذشته کردهاند.
مثلا John McCarthy (که خالق عبارت “هوش مصنوعی” است)، Marvin Minsky، Nathaniel Rochester و Claude Shannon این پیشبینی بسیار خوشبینانه را دربارهی دستاوردهای دو ماه آیندهی کامپیوترهای عصر حجری نوشتند: “پیشنهاد میکنیم که در طول تابستان ۱۹۵۶، ۱۰ محقق، مطالعاتی دو ماهه دربارهی هوش مصنوعی در کالج Dartmouth داشته باشند.
تلاش خواهیم کرد کاری کنیم تا ماشینها از زبان استفاده کنند، ایده بدهند و مفهومسازی کنند، مسائلی مختص بشر را حل و خودشان را بهتر کنند.
فکر میکنیم اگر گروهی از متخصصین مناسب، در کنار هم و در طول یک تابستان روی این موضوعات کار کنند، پیشرفتی قابل ملاحظه در یکی از این مشکلات حاصل خواهد شد.”
از سوی دیگر، یک باور مخالف میگوید که هوش مصنوعی ابرانسانی را در این قرن به دست نمیآوریم. محققین تخمینهای متغیری از فاصلهی ما تا رسیدن به ابرانسان ارائه دادهاند.
اما با توجه به سابقهی بد چنین پیشبینیهایی که با دید بد به فناوری نگاه میکنند، با قطعیت نمیتوانیم بگوییم که احتمال رسیدن به آن در قرن اخیر ۰ است.
مثلاً Ernest Rutherford، که گفته میشود یکی از بهترین فیزیکدانهای هستهای در زمان خودش بوده، در سال ۱۹۳۳ و ۲۴ ساعت قبل از اختراعِ واکنش زنجیرهای هستهای زیلارد، عنوان کرد که انرژی هستهای “مهتاب” است.
و در سال ۱۹۵۶، ستارهشناس Royal Richard Woolley سفر بینستارهای را “Utter Bilge” نامید.
اما یکی از باورها این است که هوش مصنوعی ابرانسانی هرگز عرضه نمیشود، چون از نظر فیزیکی رسیدن به آن غیرممکن است. فیزیکدانها میدانند مغز از کوارک و الکترون تشکیل شده است.
این کوارکها و الکترونها به گونهای در کنار هم قرار گرفتهاند که مانند یک کامپیوتر قدرتمند عمل میکنند. قانون فیزیکی نداریم که بگوید نمیتوانیم Blobهای کوارکی هوشمندتر بسازیم.
در طی تحقیقاتی از محققین هوش مصنوعی این سؤال پرسیده شد: به نظر آنها و با احتمال ۵۰%، چند سال تا رسیدن به هوش مصنوعی با تواناییهایی در سطح انسان فاصله داریم؟
همهی این تحقیقات نتایجی مشابه دارند: متخصصین برتر جهان با هم اختلاف نظر دارند و جواب دقیق را نمیدانند، پس نمیدانیم.
مثلاً، در یک نظرسنجی در کنفرانس AI پورتوریکو ۲۰۱۵، میانگین پاسخهای تا سال ۲۰۴۵ بود، اما محققینی هم بودند که نظرشان صدها سال بعد بود.
مردمی هم که نگران هوش مصنوعی هستند، فکر میکنند که فقط چند سالی با آن فاصله داریم.
در واقع، بیشتر محققینی که اعلام کردهاند نگران هوش مصنوعی ابرانسان هستند، حدس میزنند که هنوز دههها تا رسیدن به آن فاصله داریم.
اما اعتقاد دارند که چون هنوز ۱۰۰% مطمئن نیستیم که در این قرن به آن نمیرسیم، پس بهتر است که تحقیقات مربوط به امن بودن AI را آغاز کنیم تا آمادگی لازم را پیدا کنیم.
بسیاری از معضلات مربوط به امن بودنِ AI با تواناییهایی در سطح انسان، آنقدر پیچیده و مشکل هستند که سالها طول میکشد تا حل شوند. پس بهتر است که تا وقت داریم تحقیقات را شروع کنیم.
دورههای مرتبط در دانشیار آی تی
باورهایی دربارهی اختلاف نظرها در هوش مصنوعی پیشرفته
یکی دیگر از باورهای غلط این است که تنها اشخاصی که AI را نمیشناسند و چیزی از آن نمیدانند، نگران AI و خواستار تحقیقاتی در زمینهی امن بودن آن هستند.
وقتی Stuart Russell، نویسندهی کتاب Standard AI، این موضوع را در سخنرانی کنفرانس پورتوریکو خود عنوان کرد، حاضرین با صدای بلند خندیدند.
باور غلط دیگر این است که محققین دربارهی تحقیقاتِ امن بودن AI بسیار با هم اختلاف نظر دارند.
در واقع، لازم نیست کسی باور داشته باشد که احتمال خطرناک بودن AI بسیار بالاست تا از تحقیقات حمایت کند.
تنها احتمالی غیرقابل چشم پوشی کافی است. مالکی که خانهاش را بیمهی میکند، با درنظر گرفتن همین احتمال کم آتشسوزی این کار را انجام میدهد.
به نظر میرسد که رسانهها اختلاف نظرها در این مورد را شدیدتر از واقعیت نشان دادهاند.
به هر حال، با ترساندن، فروش حاصل میشود. مردم از مقالاتی با متونی عجیب و غریب که خبر از آخرالزمان میدهند، نسبت به مقالات عادی بازدید و استقبال بیشتری میکنند.
در نتیجه، دو شخصی که فقط با توجه به حرف رسانهها موضع هم را میدانند، ممکن است فکر کنند اختلاف نظر زیادی با هم دارند. در حالی که واقعیت چیز دیگری است.
برای مثال، یک شخص مخالف فناوری، که فقط در یک روزنامهی بریتانیایی دربارهی موضع بیل گیتس خوانده است، ممکن است به اشتباه فکر کند بیل گیتس باور دارد ابرهوش به زودی رخ میدهد.
همینطور، کسی که موافق AI است و چیزی از موضع Andrew Ng نمیداند و تنها سخنی از او دربارهی ازدیاد جمعیت مریخ خوانده است، ممکن است فکر کند که Andrew به امن بودن AI اهمیت نمیدهد، که اینطور نیست.
درواقع چون Ng معتقد است فرصت بیشتری تا رسیدن به AI پیشرفته داریم، ترجیح میدهد اولویتش مشکلات کوتاه مدت AI باشد نه بلند مدت.
پیشنهاد دانشیار آی تی به شما
بهترین زبان های برنامه نویسی در ۲۰۱۹: ۱۰ زبان برتر برای یادگیری
خواندن مطلب
باورهایی دربارهی خطرات AI ابرانسانی
بسیاری از محققین AI با دیدن این تیتر خبری عصبی میشوند: “استیون هاوکینگ هشدار داد که قیام روباتها میتواند برای بشریت فاجعهبار باشد.” تعداد مقالاتِ مشابه این کم نیست.
در این مقالات معمولاً یک روبات با چهرهای ترسناک اسلحهای در دست دارد.
این مقالات هشدار میدهند که باید نگران قیام روباتها باشیم، چون روباتها آگاه و شریر میشوند و قصد جان همهی ما را میکنند.
از طرفی این مقالات بسیار جالبند، چون به سناریوهایی میپردازند که محققین AI نگران آنها نیستند. این سناریوها سه باور غلط را در خود دارند:
نگرانی بایت آگاهی، شرارت و روباتها.
اگر در جادهای رانندگی کنید، یک تجربهی ذهنی از رنگ، صدا و غیره دارید. اما آیا یک خودرو خودران نیز چنین تجربیاتی در ذهن دارد؟
اصلاً یک خودرو خودران بودن حسی دارد؟ اگرچه معمای هوشیاری خودش موضوع جالبی است، اما ربطی به خطرات AI ندارد.
اگر با یک خودرو خودران تصادف کنید، احساس داشتن یا نداشتن خودرو چه چیزی را عوض میکند؟ چیزی که روی ما انسانها تأثیر میگذارد، کاری است که AI فوق هوشمند انجام میدهد، نه احساساتی که در ذهن دارد.
ترس از شرارت ماشینها نیز باور غلط دیگری است. نگرانی اصلی شایستگی است، نه شرارت. یک سیستم AI فوق هوشمند خیلی خوب میتواند به اهدافش دست پیدا کند.
این اهداف چه باشند فرقی نمیکند. تنها کافی است که مطمئن شویم هدف AI با هدف ما یکی است.
انسانها به طور کلی از مورچهها بدشان نمیآید، اما ما باهوشتر از مورچههاییم.
اگر بخواهیم یک سد هیدروالکتریکی بسازیم و یک مورتپه در مسیر باشد….خُب، بیچاره مورچهها. جنبش AI سودمند نمیخواهد انسان جایگزین آن مورچههای بیچاره شود.
باور غلطِ هوشیاری به نوعی مشابه این باور است که ماشینها نمیتوانند هدف داشته باشند. هدف در ماشینها به معنی نشان دادن رفتارهای هدفگراست.
رفتار یک موشک گرمایشی به صورت هدف آن درنظر گرفته میشود: برخورد به یک هدف.
پس اگر هدف یک ماشین ضد شماست و از این موضوع نگرانید، هدف ماشین است که آزاتان میدهد و نمیتوانید بگویید که ماشین آگاه است و برای خودش هدف تعیین میکند.
اگر یک موشک گرمایشی تعقیبتان کند، نمیگویید: “نگران نیستم، چون ماشینها هدف ندارند!”
واقعاً باید با Rodney Brooks و بسیاری از پیشگامان روباتیک دیگر همدردی کنیم که از سوی مجلات بهطور ناعادلانهای شیطانی نشان داده میشوند.
چون برخی از روزنامهنگاران فقط دربارهی روباتها مینویسند و بسیاری از مقالاتشان دربارهی هیولاهایی آهنی با چشمانی قرمز است.
درواقع، نگرانی اصلی جنبش AI سودمند روبات نیست، بلکه خود هوش است: مخصوصاً، هوشی که اهدافش با ما مطابقت نداشته باشد.
چنین هوش ابرانسانیِ مخالفی، برای دردسرسازی به یک بدن آهنی نیاز ندارد، یک اتصال سادهی اینترنت کافی است.
این هوش میتواند در بازار اقتصادی باهوشتر عمل کند، اختراعات بهتری از محققین داشته باشد، رهبران سیاسی را گول بزند و سلاحهایی طراحی کند که ما حتی قادر به درکشان نیستیم.
حتی اگر ساخت روباتهای فیزیکی غیرممکن باشد، یک AI فوق هوشمند و سرمایهدار میتواند به راحتی به انسانهای زیادی پول بپردازد و راضیشان کند که سهواً دست به خواستههایش بزنند.
باور غلط دربارهی روباتها هم شبیه این باور است که ماشینها نمیتوانند انسان را کنترل کنند.
هوش موجب کنترل میشود: انسان چون باهوشتر است، میتواند ببرها را کنترل کند. ما قویتر از ببر نیستیم. درنتیجه اگر ما باهوشترین موجودِ این سیاره نباشیم، ممکن است دیگر رئیس هم نباشیم.
باورهای جالب
اگر وقتمان را صرف باورهای غلط بالا نکنیم، میتوانیم روی باورهایی درست و جالب متمرکز شویم که حتی متخصصین نیز پاسخی برایشان ندارند. چه آیندهای دوست دارید؟ آیا باید سلاحهایی خودکار و کشنده بسازیم؟ دوست دارید اتوماسیون مشاغل چگونه اتفاق بیفتد؟ برای شغل کودکان امروز، چه سفارشاتی دارید؟ آیا دوست دارید که شغلهایی جدید، جایگزین قبلیها شوند؟
یا جامعهای بدون شغل داشته باشیم، که همه در آن زندگیِ آسودهای دارند و از ثروتی که ماشین آن را بهدست آورده، استفاده میکنند؟
آیا دوست دارید کمی بعدتر یک زندگی فوق هوشمند داشته باشیم و آن را در جهانمان گسترش دهیم؟ آیا ما ماشینهای هوشمند را کنترل میکنیم، یا آنها ما را؟
آیا ماشینهای هوشمند جای ما را میگیرند؟ یا کنارمان زندگی میکنند؟ یا با ما ادغام میشوند؟ انسان بودن در عصر هوش مصنوعی به چه معناست؟ دوست دارید انسان بودن چگونه باشد و راه عملی کردن آن در آینده چیست؟
فیلم آموزش کاربرد هوش مصنوعی پیشرفته در آنریل انجین:
در صورتی مطلب مزایا و معایب هوش مصنوعی برای شما مفید بوده است:
برای یادگیری بیشتر میتوانید دوره های آنلاین آموزش هوش مصنوعی را مشاهده نمایید.
دورههای مرتبط در دانشیار آی تی