بر مبنای یک واحد محاسباتی به نام پرسپترون ساخته می شود. یک پرسپترون برداری از ورودی های با مقادیر حقیقی را گرفته و یک ترکیب خطی از ورودی ها را محاسبه می کند(شکل ۳-۲۵). اگر حاصل از یک مقدار آستانه بیشتر بود خروجی پرسپترون برابر با ۱ و در غیر اینصورت معادل ۱- خواهد بود.
شکل ۳-۲۵ خروجی پرسپترون برابر با ۱ و در غیر اینصورت معادل ۱-
خروجی پرسپترون را می توان توسط رابطه( ۳-۱ ) مشخص کرد.
(۱-۳):
O(x1,x2,…,xn) =
۱ if w0 + w1x1 + w2x2 + … + wnxn > 0
-۱ Otherwise
داده پردازی اطلاعات در اجزای ساده به نام نرون صورت می گیرد.
اطلاعات بین نرون ها از طریق ارتباطات آنها رد و بدل می شوند.
هر یک از این رابطه ها دارای وزن w و ورودی xمختص خود هستند کهw در مقدار اطلاعات رد و بدل شده با سایر نرون ها ضرب می شوند و به مرور زمان این وزن ها تنظیم می گردند. در واقع به این صورت است که شبکه از محیط تاثیر پذیرفته و آموزش می بیند.
یادگیری پرسپترون عبارت است از:
پیدا کردن مقادیردرستی برایW، فضای فرضیه در یادگیری مجموعه تمام مقادیر حقیقی ممکن برای بردارهای وزن است.
(( اینجا فقط تکه ای از متن درج شده است. برای خرید متن کامل فایل پایان نامه با فرمت ورد می توانید به سایت feko.ir مراجعه نمایید و کلمه کلیدی مورد نظرتان را جستجو نمایید. ))
(شکل۳-۲۶)پرسپترون را میتوان بصورت یک سطح تصمیم [۹]در فضای n بعدی نمونه ها در نظر گرفت. پرسپترون برای نمونه های یک طرف صفحه مقدار ۱و برای مقادیر طرف دیگر مقدار ۱- بوجود می آورد.
شکل۳-۲۶: نمونه ای برای پرسپترون
یک پرسپترون فقط قادر است مثالهائی را یاد بگیرد که بصورت خطی جداپذیر باشند .اینگونه مثالها مواردی هستند که بطور کامل توسط یک سطح تصمیم قابل جدا سازی میباشند.
۳-۳-۲- الگوریتم های یادگیری پرسپترون
مقادیری تصادفی به وزنها نسبت میدهیم.
پرسپترون را به تک تک مثالهای آموزشی اعمال میکنیم .اگر مثال غلط ارزیابی شود مقادیر
وزنهای پرسپترون را تصحیح میکنیم.
آیا تمامی مثالهای آموزشی درست ارزیابی میشوند:
بله ⇓ پایان الگوریتم
خیر⇓به مرحله ۲ برمیگردیم
وقتی که مثالها بصورت خطی جداپذیر نباشند قانون پرسپترون همگرا نخواهد شد .برای غلبه بر این مشکل از قانون دلتا استفاده میشود .
ایده اصلی این قانون استفاده از الگوریتم جستجو[۱۰] در فضای فرضیه وزنهای ممکن میباشد .این قانون پایه روش Back propagation است که برای آموزش شبکه با چندین نرون به هم متصل بکار میرود.
همچنین این روش پایه ای برای انواع الگوریتم های یادگیری است که باید فضای فرضیه ای شامل فرضیه های مختلف پیوسته را جستجو کنند.
وزنها باید حداقل خطا را داشته باشند. الگوریتم جستجو در فضای وزن ها با دنبال برداری می گردد که خطا را حداقل کند. این الگوریتم از یک مقدار دلخواه برای بردار وزن شروع کرده و در هر مرحله وزن ها را طوری تغییر می دهد که در جهت کاهشی، خطا را کاهش دهد.
۳-۳-۳- طراحی شبکه عصبی در MATLAB
برای طراحی شبکه در مطلب به دو ماتریس نیاز داریم. ماتریس A به عنوان ماتریس ورودی و ماتریسB
به عنوان ماتریس هدف. برای ساخت ماتریس ورودی داده های جدول ۳-۱ داخل یک ماتریس قرار می گیرند.
جدول ۳-۳ داده های بدست آمدهB.
متغیر | ورودی۱ ویژگی شکل ۳-۴ |
ورودی ۲ ویژگی شکل ۳-۶ | ورودی ۳ ویژگی شکل ۳-۸ |
ورودی ۴ ویژگی شکل ۳-۱۰ |
ورودی ۵ ویژگی شکل ۳-۱۳ طول | ورودی ۶ ویژگی شکل ۳-۱۳ عرض | ورودی ۷ ویژگی شکل ۳-۱۴ طول | ورودی ۸:ویژگی شکل ۳-۱۴ عرض | ورودی ۹ : ویژگی شکل ۳-۱۵ طول | ورودی ۱۰ ویژگی شکل ۳-۱۵ عرض | ورودی ۱۱ ویژگی شکل ۳-۱۶ طول |
نفر A |