مفاهیم بیشتر برای هوش مصنوعی قبل از اینکه ترسناک شود!
هوش مصنوعی ممکن است فقط یک چیز جعلی باشد (Myhrvold، 2014). ممکن است فقط یک لایه فلسفی غیر ضروری را به آنچه در غیر این صورت باید یک زمینه فنی باشد اضافه کند. اگر در مورد چالشهای فنی خاصی صحبت کنیم که ممکن است محققان هوش مصنوعی به آنها علاقه داشته باشند، در نهایت با چیزی کسلکنندهتر مواجه میشویم، اما بسیار منطقیتر است. به عنوان مثال، ما می توانیم در مورد منطق فازی که بین طبقه بندی ها در یک سیستم کنترل تصمیم گیری می کند صحبت کنیم. آیا برنامههای ما میتوانند تشخیص دهند که یک کاربر ویلچر میخواهد به دیوار بسیار نزدیک شود (مثلاً چراغی را روشن کند) و این چیزها؟ این نوع حل هوشمندانه مسئله در مهندسی کنترل منجر به ایجاد هیچ نوع حیاتی نمی شود و مطمئناً زندگی، برتر از ما نیست. اگر از هوش مصنوعی به عنوان مجموعه ای از تکنیک ها، به عنوان یک رشته تحصیلی در ریاضیات یا مهندسی کنترل صحبت کنید، مزایایی به همراه دارد. اگر در مورد آن به عنوان یک اسطوره صحبت کنیم، می توانیم زمان و تلاش خود را تلف کنیم.
اگر هوش مصنوعی آنقدر خوب کار می کرد که می خواست ترسناک شود، هیجان انگیز بود (Wastler, 2014)، اما بخشی که باعث ایجاد مشکلات واقعی برای انسان ها و جهان می شود، عملگر سیستم است زیرا رابطی برای تغییر فیزیکی است. این سیستم های کنترلی ما هستند که آن را کنترل خواهند کرد. اندیشیدن به مشکل بهعنوان نوعی الگوریتم خودمختاری سرکش، بهجای فکر کردن به محرکها، به اشتباه هدایت میشود. درواقع عملگرها هستند که توسط سیستم های کنترل، کنترل می شوند که می توانند آسیب واقعی وارد کنند. برخی از اسطورههای هوش مصنوعی به نظر میرسد شبیه به برخی از ایدههای سنتی در مورد دین هستند، اما در دنیای فنی کاربرد دارند. مفهوم آستانه (که گاهی اوقات تکینگی یا فوق هوش و غیره نامیده می شود) شبیه به نوع خاصی از ایده خرافی در مورد الوهیت است (لانیر، 2014).
گفتنی است، به عنوان مهندسان کنترل، ممکن است لازم باشد بیشتر نگران نسخه کودک دو یا سه ساله هوش مصنوعی باشیم. کودکان دو و سه ساله متوجه نمی شوند که چه زمانی مخرب هستند، اما اگر اشتباهات آنها منجر به مقررات بیشتر شود، دشوار خواهد بود. اگر ویلچرهای ما در تلاش برای جلوگیری از برخورد با گربه زیر اتوبوس میروند، سؤالات جالبی برای پاسخ دادن وجود خواهد داشت، اما مقررات فقط کار را به خارج از ساحل میفرستد و بازیکنان «معتمد» را با مشکل مواجه میکند، در حالی که هکرها به هر حال ادامه میدهند.
باهوش تر و دارای مزیت
ماشینها و الگوریتمهای کنترل هوشمندتر میشوند و ما سخت برای رسیدن به آن تلاش میکنیم تا بتوانیم از مزایای واقعی آن بهرهمند شویم، اما این ماشینهای هوشمند چه باید بکنند و چه کاری نباید انجام دهند؟ آیا آنها باید تصمیم بگیرند که چه کسی را در میدان جنگ بکشند یا در حوزه پزشکی؟ انجمن پیشرفت هوش مصنوعی با مجموعه ای از پانل ها به طور رسمی به این مسائل اخلاقی با جزئیات پرداخته است و برنامه هایی برای گسترش این تلاش در حال انجام است (Muehlhauser, 2014).
گرچه نظرات منفی وجود دارد. فیلسوف جان سرل می گوید که ایده هوشمند بودن یک ماشین غیر زیستی نامنسجم است. هوبرت دریفوس می گوید که غیرممکن است. دانشمند کامپیوتر جوزف وایزنبام می گوید که این ایده ناپسند، ضد انسانی و غیراخلاقی است. افراد مختلف گفته اند که از آنجایی که هوش مصنوعی تاکنون به سطح انسانی نرسیده است، ممکن است هرگز به آن نرسد. هنوز افراد دیگری از ورشکستگی شرکت هایی که در آنها سرمایه گذاری کرده اند ناامید هستند (سوالات اساسی، 2015).
7 پیشرفت در تقویت هوش مصنوعی
هفت پیشرفت زیر ممکن است پیشرفت های هوش مصنوعی را تقویت کند:
- محاسبات موازی ارزان میتواند معادل شلیک همزمان میلیاردها نورون باشد
- Big Data می تواند به استفاده از دسته بندی با حجم عظیمی از داده هایی که در سرورها ذخیره می شود کمک کند.
- الگوریتمهای بهتر، مانند شبکههای عصبی در لایههای انباشته با نتایج بهینهشده در هر لایه، امکان انباشته شدن سریعتر یادگیری را فراهم میکنند.
- دسترسی فزاینده به توان محاسباتی گسترده با هزینه کم و پیشرفت در علوم کامپیوتر و مهندسی، بر تحولات در مهندسی کنترل تاثیر می گذارد.
- راهحلهای الگوریتمی بازگشتی مسائل کنترل در حال حاضر بر خلاف جستجوی راهحلهای شکل بسته امکانپذیر هستند (Kucera, 2014).
- سیستم های کنترل، سیستم های تصمیم گیری هستند و این منجر به تحقیقات بین رشته ای و لقاح متقابل می شود. حوزههای کنترلی نوظهور شامل سیستمهای کنترل ترکیبی (سیستمهایی با دینامیک پیوسته که توسط ماشینهای متوالی کنترل میشوند)، کنترل منطق فازی، پردازش موازی، شبکههای عصبی و یادگیری است. تئوری سیستم های کنترل همچنین از پردازش سیگنال، ارتباطات، تحلیل عددی، حمل و نقل و اقتصاد سود می برد.
- محاسبات آنالوگ به ویژه در مهندسی کنترل در حال بازگشت است. این ایده که یک ماشین در نهایت می تواند به خوبی یا بهتر از یک انسان فکر کند، یک ایده خوشایند است (Myhrvold، 2014)، اما مغز ما یک دستگاه آنالوگ است و اگر بخواهیم نگران هوش مصنوعی باشیم، ممکن است به کامپیوترهای آنالوگ و نه دیجیتالی نیاز داشته باشیم. گفته میشود، یک مدل هرگز واقعیت ندارد و اگر مدلهای ما روزی از پدیدههایی که مدلسازی میکنند پیشی بگیرند، یک نوآوری جدید خواهیم داشت.
اصلیترین چیزی که به نظر میرسد مردم از آن میترسند این است که هوش مصنوعی تصمیماتی را که فکر میکنند باید توسط انسانها گرفته شود، بهعنوان مثال رانندگی ماشینها یا ویلچرهای برقی و هدفگیری و شلیک موشکها را به عهده بگیرد. اینها می توانند تصمیمات مرگ و زندگی باشند و مشکلاتی مهندسی و اخلاقی هستند.
اگر یک سیستم هوش مصنوعی تصمیمی بگیرد که ما پشیمان باشیم، الگوریتم های آن را تغییر می دهیم. اگر سیستمهای هوش مصنوعی تصمیمهایی بگیرند که جامعه یا قوانین ما آن را تأیید نمیکند، آنگاه اصول حاکم بر آنها را اصلاح میکنیم یا اصول بهتری ایجاد میکنیم. البته مهندسان انسانی اشتباه می کنند و ماشین های هوشمند نیز اشتباه می کنند، حتی اشتباهات بزرگ. مانند انسان ها، ما نیز باید به نظارت، آموزش و اصلاح آنها ادامه دهیم. بر روی عملکرد سیستمهای مصنوعی بررسیهای دقیقی انجام خواهد شد، اما مشکل گستردهتر این است که ما در مورد آنچه مناسب است اتفاق نظر نداریم.
ابزار مناسب برای کار درست
بین هوش ماشینی و تصمیم گیری ماشینی باید تمایزی قائل شد. ما نباید از ماشینهای هوشمند بترسیم، بلکه باید از ماشینهایی بترسیم که تصمیمگیری میکنند ولی هوش آن را ندارند. در مورد انسان ها، این حماقت ماشینی است که خطرناک است و نه هوش ماشینی (بیشاپ، 2014). یک مشکل این است که الگوریتمهای کنترل هوشمند میتوانند تصمیمهای بسیار خوبی بگیرند و سپس یک روز تصمیم بسیار احمقانهای بگیرند و بهدلیل رویدادی که هرگز در دادههای آموزشی ظاهر نشد، به طرز چشمگیری شکست بخورند. این مشکل با هوش محدود است. ما باید از حماقت خودمان خیلی بیشتر از درخشش فرضی یا حماقت الگوریتم هایی که هنوز اختراع نشده اند بترسیم. ماشینهای هوش مصنوعی هیچ احساسی ندارند و هرگز نخواهند داشت، زیرا تحت نیروهای انتخاب طبیعی نیستند (اینگهام و مولارد، 2014).
هیچ معیاری برای هوش یا معیاری برای انواع خاصی از یادگیری و هوشمندی وجود ندارد، بنابراین دشوار است که بدانیم آیا در حال بهبود هستیم یا خیر (Kelly, 2014). ما قطعا هیچ خط کشی نداریم که تداوم هوش را بسنجیم. ما حتی یک تعریف توافق شده از هوش نداریم. به نظر می رسد که هوش مصنوعی در مهندسی کنترل مفیدتر می شود، تا حدی از طریق آزمون و خطا و حذف الگوریتم های کنترل و ماشین هایی که کار نمی کنند. همانطور که سیستم های هوش مصنوعی اشتباه می کنند، می توانیم تصمیم بگیریم که چه چیزی قابل قبول است. از آنجایی که سیستم های هوش مصنوعی وظایفی را بر عهده می گیرند که انسان ها انجام می دهند، ما چیزهای زیادی برای آموزش به آنها داریم. بدون این آموزش و راهنمایی، آنها ترسناک خواهند بود (مانند بسیاری از سیستم های مهندسی)، اما به عنوان مهندسان کنترل، ما می توانیم این آموزش و راهنمایی را ارائه دهیم.
دنیای مجازی
ما به عنوان انسان، دنیای فیزیکی را تنها از طریق یک مدل مجازی ایجاد شده توسط عصب شناختی که به نظر ما واقعیت است، می شناسیم. حتی تاریخچه زندگی و حافظه ما نیز یک ساختار عصبی است. مغز ما روایت هایی را تولید می کند که با آن زندگی می کنیم. این روایت ها نادقیق هستند، اما به اندازه کافی خوب هستند که بتوانیم در کنار آن اشتباه کنیم. اگرچه ممکن است در کارهای خاص بهترین باشیم، اما در مجموع، در رقابت با ماشینها به خوبی عمل میکنیم. ماشینها از شبیهسازی انعطافپذیری، حیلهگری، فریب، خشم، ترس، انتقام، پرخاشگری و کار تیمی ما بسیار دور هستند (براکمن، 2014).
ضمن احترام به مهارت باریک و شطرنج بازی یادگیری عمیق، نباید از آن مرعوب شویم. در واقع ماشین های هوشمند به انسان ها کمک کرده اند تا شطرنج بازان بهتری شوند. همانطور که هوش مصنوعی توسعه می یابد، ممکن است مجبور شویم راه هایی را برای جلوگیری از هوشیاری در آنها مهندسی کنیم، همانطور که سیستم های کنترل را مهندسی می کنیم تا ایمن باشند. به هر حال، حتی با واتسون یا دیپ بلو، هر کسی می تواند پریز آن را بکشد و با چکش آن را به آوار تبدیل کند … یا ما می توانیم؟
نویسندگان: دیوید ای. سندرز (مهندسی) و الکساندر گِگوف (علوم کامپیوتر)، دانشگاه پورتسموث، انگلستان.
ترجمه و گردآوری: پلتفرم اختصاصی مهندسی کنترل