فصل سوم: شبکههای عصبی کمعمق
مقدمه
فصل سوم این کتاب به معرفی و بررسی شبکههای عصبی کمعمق میپردازد. این شبکهها که دارای یک لایه پنهان هستند، به عنوان مدلهایی قدرتمند برای تقریب توابع پیچیده شناخته میشوند. در ادامه، اصول عملکرد، ساختار ریاضی، و ویژگیهای کلیدی این شبکهها به تفصیل بررسی میشود.
۱. معرفی شبکههای عصبی کمعمق
شبکههای عصبی کمعمق، توابعی با پارامترهای قابل یادگیری هستند که ورودیهای چندمتغیره را به خروجیهای چندمتغیره ترسیم میکنند. این مدلها برخلاف رگرسیون خطی ساده، قادر به توصیف روابط غیرخطی بین ورودی و خروجی هستند. ساختار کلی این شبکهها شامل سه بخش اصلی است:
لایه ورودی: دادههای ورودی را دریافت میکند.
لایه پنهان: محاسبات غیرخطی را انجام میدهد.
لایه خروجی: نتایج نهایی را تولید میکند.
۱.۱ مثال کاربردی
برای درک بهتر، یک شبکه عصبی با یک ورودی اسکالر و یک خروجی اسکالر در نظر گرفته میشود. این شبکه دارای ده پارامتر است:
که معادله آن به شکل زیر است:
در اینجا تابع فعالسازی است.
۲. تابع فعالسازی و نقش آن
تابع فعالسازی یکی از اجزای حیاتی شبکههای عصبی است که غیرخطی بودن را به مدل تزریق میکند. رایجترین تابع فعالسازی، واحد خطی اصلاحشده (ReLU) است:
این تابع مقادیر منفی را صفر و مقادیر مثبت را بدون تغییر عبور میدهد.
۲.۱ جایگزینهای تابع فعالسازی
اگرچه ReLU پرکاربردترین تابع فعالسازی است، توابع دیگری نیز استفاده میشوند، از جمله:
سیگموئید:
تانژانت هذلولی:
هر یک از این توابع دارای ویژگیها، مزایا و محدودیتهای خاص خود هستند.
۳. قضیه تقریب جهانی
یکی از مهمترین نتایج نظری درباره شبکههای عصبی کمعمق، قضیه تقریب جهانی (Universal Approximation Theorem) است. این قضیه بیان میکند:
«یک شبکه عصبی با یک لایه پنهان و تعداد کافی واحد پنهان میتواند هر تابع پیوسته تعریفشده روی یک زیرمجموعه فشرده از را با دقت دلخواه تقریب بزند.»
۳.۱ تفسیر عملی
این قضیه تضمین میکند که شبکههای عصبی کمعمق توانایی مدلسازی روابط پیچیده بین ورودی و خروجی را دارند، مشروط بر اینکه تعداد واحدهای پنهان کافی باشد. برای مثال، در شکل ۳.۵ مشاهده میشود که با افزایش تعداد واحدهای پنهان، مدل به تدریج به تابع هدف نزدیکتر میشود.
۴. ورودیها و خروجیهای چندمتغیره
شبکههای عصبی کمعمق میتوانند ورودیها و خروجیهای چندمتغیره را نیز پردازش کنند.
۴.۱ خروجیهای چندمتغیره
برای تولید خروجیهای چندمتغیره، از ترکیب خطی متفاوتی از واحدهای پنهان برای هر خروجی استفاده میشود. به عنوان مثال، برای یک شبکه با چهار واحد پنهان و دو خروجی:
۴.۲ ورودیهای چندمتغیره
برای پردازش ورودیهای چندمتغیره، هر واحد پنهان ترکیبی خطی از تمام ورودیها را محاسبه میکند. مثلاً برای ورودی دوبعدی داریم:
۵. اصطلاحات و مفاهیم کلیدی
برخی از مفاهیم کلیدی در شبکههای عصبی کمعمق:
لایه پنهان: لایهای بین ورودی و خروجی که محاسبات غیرخطی را انجام میدهد.
نورون یا واحد پنهان: هر یک از گرههای لایه پنهان.
پیشفعالسازی: مقدار ورودی به نورون قبل از اعمال تابع فعالسازی.
فعالسازی: خروجی نورون پس از اعمال تابع فعالسازی.
وزنها: ضرایب خطی در ترکیب ورودیها.
بایاس: مقدار ثابت اضافهشده به خروجی نورون.
۶. جمعبندی
شبکههای عصبی کمعمق با یک لایه پنهان، ابزارهایی قدرتمند برای مدلسازی روابط غیرخطی بین ورودی و خروجی هستند. این شبکهها با استفاده از توابع فعالسازی مانند ReLU، قادر به تقریب توابع پیچیده با دقت بالا هستند. قضیه تقریب جهانی پشتوانه نظری این توانایی را فراهم میکند. در فصل بعد، شبکههای عصبی عمیق (دارای چندین لایه پنهان) مورد بررسی قرار خواهند گرفت.