وب کلیک

آیا هوش انسانی به کمک یادگیری عمیق هوش مصنوعی می‌تواند بزرگترین رازهای فیزیک را حل کند؟

۲۱ مرداد ۱۳۹۷

مدل هستاندارد فیزیک ذرات یا همان باغ وحش معروف ذرات بنیادی، سرشار از رازهایی هست که می‌توان با تجزیه تحلیل داده‌های شتاب‌دهنده‌ها افزایش به کشف آنها نزدیک انجام گرفت. اما حجم این داده‌ها به قدری زیاد هست که هوش انسانی به تنهایی نمی‌تواند از پس تجزیه تحلیل آنها برآید،‌ پس باید دست به دامان هوش مصنوعی انجام گرفت. یادگیری عمیق به عنوان شاخه‌ای از هوش مصنوعی، همان ابزار قدرتمندی هست که به آن نیاز داریم. فیزیکدانان ذرات به تازگی در مقاله‌ای تفصیلی و جذاب که در مجله‌ی نیچر منتشر انجام گرفته، کاربردهای جالب هوش مصنوعی در فیزیک را برشآقاه‌اند. با وب کلیک همراه باشید…

آزمایش‌های انجام انجام گرفته در بزرگترین شتاب دهنده ذرات در جهان (LHC)، واقع در CERN، حدود یک میلیون گیگابایت داده را در هر ثانیه تولید می‌کند. حتی پس از کاهش و فشرده سازی این هشدارات، حجم داده‌های ذخیره انجام گرفته در یک ساعت، معادل حجم داده‌هایی هست که فیس بوک در کل سال برای ذخیره و تجزیه و تحلیل داده‌ها جمع آوری می‌کند. خوشبختانه، وب کلیکان فیزیک ذرات مجبور نیستند پایان این هشدارات را به تنهایی مورد بررسی و تجزیه و تحلیل قرار دهند. شاخه‌ای از هوش مصنوعی به نام یادگیری ماشین (که نحوه انجام تجزیه تحلیل‌های پیچیده را می‌آموزد)، ابزاری قدرتمند برای بررسی این حجم از هشدارات می‌باانجام گرفت.

گروهی از محققان و وب کلیکان SLAC و شتاب دهنده فرمی در مقاله ای که در مجله‌ی Nature منتشر انجام گرفته، کاربرد‌ها و چشم‌اندازهای یادگیری ماشین در فیزیک ذرات را مورد بررسی قرار داده‌اند. الکساندر رادوویچ یکی از محققانی که بر روی آزمایش نوترینو NOvA تحقیق می‌کند می‌گوید:

در مقایسه با یک الگوریتم کامپیوتری سنتی که ما برای انجام یک تجزیه و تحلیل خاص طراحی می کنیم، ما با هستفاده از هوش مصنوعی، یک الگوریتم یادگیری ماشین را طراحی می کنیم که به تنهایی قادر به انجام تجزیه و تحلیل داده‌های بدست آمده خواهد بود که به طور بالقوه موجب صرفه جویی در زمان طراحی فرایند‌ها و تجزیه و تحلیل داده‌های بدست آمده می‌شود.

غربال‌ کـــردن داده های بزرگ

به منظور هستفاده‌ از حجم زیاد بالای داده‌های تولید انجام گرفته در آزمایش‌های مدرن (مانند LHC)، وب کلیکان از محرک‌هایی که به آن نام «triggers» یا ماشه‌ها داده‌اند،‌ هستفاده می‌کنند. ماشه‌ها، دشوار‌افزار و نرم‌افزار‌های اختصاصی هستند که در زمان واقعی تصمیم می‌گیرند کدام داده‌ها‌ برای تجزیه و تحلیل، حفظ و کدام داده‌ها باید حذف شوند. به عنوان مثال در آزمایشی که در آزمایشگاه LHCb، به منظور یافتن دلیلیی افزایش بودن ماده نسبت به پادماده در جهان انجام گرفت، الگوریتم‌های یادگیری ماشین حداقل ۷۰ درصد الگوریتم‌های مورد نیاز را طراحی و بررسی کـــردند. مایک ویلیامز، وب کلیک LHCb از موسسه فناوری ماساچوست، یکی از نویسندگان این پزوهش می‌گوید:

یادگیری ماشین تقریبا در پایان جنبه‌های آزمایش، از محرک‌ها تا تحلیل داده‌های باقیمانده، نقشی اساسی ایفا می‌کند.

یادگیری ماشین در زمینه تجزیه و تحلیل نتایج زیاد موفق بوده هست. آشکارسازهای غول پیکر ATLAS و CMS در LHC، که باعث کشف ذره بوزون هیگز انجام گرفته‌اند، دارای میلیون ها عنصر حساس هستند که سیگنال‌های آن‌ها باید با یکدیگر ترکیب انجام گرفته تا نتایج معنی‌داری بدست آید. ویلیامز می‌افزاید:

این سیگنال‌ها تشکیل یک فضای انبوه از هشدارات پیچیده را می‌دهند. ما باید رابطه بین آن‌ها را برای نتیجه‌گیری‌ها درک کنیم، به عنوان مثال یک ذره خاص در آشکارساز توسط یک الکترون، فوتون یا چیزی دیگر ساخته انجام گرفته هست.

آزمایش‌های نوترینو نیز از یادگیری ماشین بهره‌مند می‌شوند. NOvA، که توسط Fermilab اداره می‌شود، فرایند تغییر نوترینو‌ها از یک نوع به دیگر را طی سفر از یک نقطه‌ی زمین به نقطه‌ی دیگر مورد بررسی قرار می دهد. این نوسانات نوترینو می‌تواند به طور بالقوه وجود یک نوع جدید از نوتینو را نشان دهد که برخی از نظریه‌ها آن را ذره‌ای از ماده تاریک پیش‌بینی می‌کنند. آشکارسازهای NOvA در جستجوی ذرات باردار تولید انجام گرفته هنگام برخورد نوترینو‌ها به آشکارساز‌ها می‌باشند و الگوریتم‌های یادگیری ماشین آن‌ها را شناسایی می‌کنند.

از یادگیری ماشین به یادگیری عمیق

پیشرفت‌های اخیر در یادگیری ماشین که اغلب به نام «یادگیری عمیق» (Deep Learning) نام برده می‌شود، کاربرد افزایشی در فیزیک ذرات خواهند داشت. یادگیری عمیق که معمولا به هستفاده از شبکه‌های عصبی اشاره دارد در واقع، الگوریتم‌های کامپیوتری با معماری الهام گرفته از شبکه‌های متراکم نورون‌های مغز انسان هست. این شبکه‌‌های عصبی به خودی خود، نحوه تجزیه و تحلیل داده‌های خاص را آموخته و یاد می‌گیرند. به نقل کرد یکی از اعضای فعال در آزمایش نوترینو:

تا همین اواخر موفقیت شبکه‌های عصبی به دلیل محدودیت‌های موجود در فرایند تعلیم به آن‌ها زیاد دشوار بود. این مشکلات باعث انجام گرفتند تا بررسی‌ها محدود به تعداد لایه از شبکه‌های عصبی باشند. اما اکنون به لطف پیشرفت در الگوریتم‌ها و دشوار افزار‌های محاسباتی، با هستفاده از یادگیری عمیق امکان ایجاد و تعلیم شبکه‌های توانمند با صدها یا هزاران لایه عمیق‌تر فراهم انجام گرفته هست.

زیادی از پیشرفت‌های شده در فرایند یادگیری عمیق، توسط پلن‌های کاربردی تجاری غول‌های فناوری و گسترش داده‌های آن‌ها در طی دو دهه گذشته ایجاد انجام گرفته هست. رادوویچ می گوید:

مثلا NOvA، از یک شبکه عصبی با الهام از معماری GoogleNet هستفاده می‌کند. اگر این آزمایش به شیوه‌ی دیگر انجام می‌گرفت حجم هشدارات به دست آمده تنها  ۳۰ درصد بود.

زمین حاصلخیزی برای نوآوری

الگوریتم‌های یادگیری ماشین روز به روز پیچیده‌تر و دقیق‌تر انجام گرفته و باعث ایجاد فرصت‌های بی سابقه‌ای برای حل مشکلات فیزیک ذرات می‌شوند. به نقل کرد یکی از محققان این طرح، زیادی از وظایف جدید که می‌توانند مورد هستفاده قرار گیرند، مربوط به دید کامپیوتری (computer vision) هست. فرایندی مشابه با تشخیص چهره، با این تفاوت که در فیزیک ذرات، ویژگی‌های تصویر، انتزاعی‌تر از گوش‌ها و بینی هست. برخی آزمایش‌ها مانند NOvA و MicroBooNE هشداراتی تولید می‌کنند که به آسودهی به تصویر ها واقعی تبدیل می‌شوند و هوش مصنوعی (AI) را می‌توان به آسودهی برای شناسایی ویژگی‌های آن‌ها مورد هستفاده قرار داد، اما در آزمایش‌های LHC، تصویر ها ابتدا باید از یک ستون مبهم هشدارات که توسط میلیون‌ها حسگر عنصر تولید انجام گرفته‌اند، بازسازی شوند. وب کلیکان می‌گویند:

اما حتی اگر داده‌ها به شکل تصویر نباشند، ما هنوز می‌توانیم از روش‌های دید کامپیوتری هستفاده کنیم. به صورت حتم اگر بتوانیم داده‌ها را به درستی پردازش کنیم.

یک از حیاتی‌ترین مسائلی که با هستفاده از یادگیری عمیق می‌توان مورد بررسی قرار داد، تجزیه تحلیل تعداد زیاد جت‌های ذرات تولید انجام گرفته در LHC هست. جت‌ها، اسپری‌های باریک از ذرات هست که فرایند جداسازی راه حرکتی آن‌ها یکی از چالش‌های جدی درفیزیک ذرات به شمار می‌رود. تکنولوژی دید کامپیوتری می‌تواند ابزاری مفید برای شناسایی ویژگی‌های این جت‌ها باانجام گرفت. یکی دیگر از کاربرد‌های در حال ظهور یادگیری عمیق ، شبیه‌سازی داده‌های فیزیک ذرات هست که اتفاقات رخ داده در طی برخورد ذرات در LHC را پیش‌بینی و با داد‌ه‌های واقعی مقایسه می‌کند. چنین شبیه‌سازی‌هایی معمولا آهسته و به قدرت محاسباتی زیاد زیاد نیاز دارند. از سوی دیگر، AI می‌تواند شبیه‌سازی‌ها را سریع‌تر انجام دهد، و به طور بالقوه یافته‌های سنتی را تکمیل کند.

بهره مندی از شک گرایی درست

علی‌رغم همه پیشرفت‌های آشکار، علاقه‌مندان به یادگیری ماشین اغلب در هستفاده از آن، با شک و تردید مواجه می‌شوند، زیرا الگوریتم‌های یادگیری ماشین عمدتا مانند «جعبه‌های سیاه» عمل می‌کنند و هشدارات زیاد کمی در مورد چگونگی دست‌یابی به نتایج خاص را بدست می‌دهند. آنها می‌گویند:

تردید ها در این زمینه زیاد درست هست. اگر از یادگیری ماشین به عنوان محرکی برای از بین بردن داده ها هستفاده می‌کنید، مانند آنچه ما در LHCb، انجام می‌دهیم، پس باید زیاد محتاط باشید. بنابراین، هستفاده از یادگیری عمیق در فیزیک ذرات نیاز به تلاش های مداوم برای درک بهتر فرایند درونی الگوریتم‌های طراحی انجام گرفته و در صورت امکان بررسی‌ آن‌ها با هشدارات واقعی دارد. ما متداوم باید سعی در فهم الگوریتم‌های کامپیوتری داشته باشیم و متداوم نتایج آن را ارزیابی کنیم. چنین دیدگاهی نه تنها در مورد الگوریتم های عمیق بلکه در مورد هر الگوریتم خاص لازم هست. بنابراین، تردید‌ها نباید پیشرفت را متوقف کند.

این محققان آرزوی پیشرفت‌های بزرگ در فردا نزدیک را دارند:

امروز ما از یادگیری ماشین‌ها برای پیدا کـــردن ویژگی‌های هشدارات موجود هستفاده می‌کنیم که می‌تواند به ما در پاسخ به برخی از سوالات کمک کند. ده سال بعد، الگوریتم های یادگیری ماشین ممکن هست بتوانند مستقلا از خود سوال بپرسند و زمان ظهور فیزیک جدید را تشخیص دهند.