Download
1 / 78

مباحث : - PowerPoint PPT Presentation


  • 238 Views
  • Uploaded on

مباحث :. معرفی شبکه های عصبی مصنوعی( ANN ها) مبانی شبکه های عصبی مصنوعی توپولوژی شبکه فرآیند یادگیری شبکه تجزیه و تحلیل داده ها توسط شبکه های عصبی مصنوعی ایده ی اصلی شبکه های عصبی مصنوعی معایب شبکه های عصبی مصنوعی کاربردهای شبکه های عصبی مصنوعی. مقدمه: زمان پاسخ گویی نرون طبیعی :

loader
I am the owner, or an agent authorized to act on behalf of the owner, of the copyrighted work described.
capcha
Download Presentation

PowerPoint Slideshow about ' مباحث :' - eve


An Image/Link below is provided (as is) to download presentation

Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author.While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server.


- - - - - - - - - - - - - - - - - - - - - - - - - - E N D - - - - - - - - - - - - - - - - - - - - - - - - - -
Presentation Transcript

مباحث :

معرفی شبکه های عصبی مصنوعی(ANNها)

مبانی شبکه های عصبی مصنوعی

توپولوژی شبکه

فرآیند یادگیری شبکه

تجزیه و تحلیل داده ها توسط شبکه های عصبی مصنوعی

ایده ی اصلی شبکه های عصبی مصنوعی

معایب شبکه های عصبی مصنوعی

کاربردهای شبکه های عصبی مصنوعی


مقدمه:

زمان پاسخ گویی نرون طبیعی :

زمان پاسخ گویی ترانزیستور :

با این حال عملیات در مغز انسان خیلی سریعتر از کامپیوتر است.


معرفی ANN ها

  • یک سیستم پردازشی داده ها که از مغز انسان ایده گرفته و پردازش داده ها را به عهده ی پردازنده های کوچک و بسیار زیادی سپرده که به صورت شبکه ای به هم پیوسته و موازی با یکدیگر رفتار می کنند تا یک مسئله را حل کنند.


معرفی ANN ها

  • یک سیستم پردازشی داده ها که از مغز انسان ایده گرفته و پردازش داده ها را به عهده ی پردازنده های کوچک و بسیار زیادی سپرده که به صورت شبکه ای به هم پیوسته و موازی با یکدیگر رفتار می کنند تا یک مسئله را حل کنند.


معرفی ANN ها

  • یک سیستم پردازشی داده ها که از مغز انسان ایده گرفته و پردازش داده ها را به عهده ی پردازنده های کوچک و بسیار زیادی سپرده که به صورت شبکه ای به هم پیوسته و موازی با یکدیگر رفتار می کنند تا یک مسئله را حل کنند.


در این شبکه ها به کمک دانش برنامه نویسی ، ساختا ر داده ای طراحی می شود که می تواند هما نند نورون عمل کند


شبکه های عصبی به طور کلی نویسی ، ساختا ر داده ای طراحی می شود که می تواند هما نند نورون عمل کندسیستمهای ریاضی یادگیر غیر خطی هستند.


آموزش نویسی ، ساختا ر داده ای طراحی می شود که می تواند هما نند نورون عمل کند

اعتبار سنجی

اجرا


output 1 نویسی ، ساختا ر داده ای طراحی می شود که می تواند هما نند نورون عمل کند

0.9

Input 1

0.3

0.78

output 2

Input 2

0.3

0.7

output 3

0.8

آموزش دیدن شبکه های عصبی در واقع چیزی جز تنظیم وزن های ارتباطی این نرون ها به ازائ دریافت مثال های مختلف نیست تا خروجی شبکه به سمت خروجی مطلوب همگرا شود.


توپولوژی شبکه نویسی ، ساختا ر داده ای طراحی می شود که می تواند هما نند نورون عمل کند

وضعیت نسبی سلولها در شبکه(تعداد و گروه بندی و نوع اتصالات آنها)را توپولوژی شبکه گویند.توپولوژی در واقع سیستم اتصال سخت افزار نورونها به یکدیگر است که توام با نرم افزار مربوطه (یعنی روش ریاضی جریان اطلاعات و محاسبه ی وزنها)نوع عملکرد شبکه ی عصبی را تعیین می کند.

در این توپولوژی یک لایه ی ورودی وجود دارد که اطلاعات را دریافت می کند،تعدادی لایه یمخفی وجود دارد که اطلاعات را از لایه های قبلی می گیرند و در نهایت یک لایه ی خروجی وجود دارد که نتیجه ی محاسبات به آنجا میرود و جوابها در آن قرار میگیرند.

FeedForward topology

Recurrent topology


Input layer نویسی ، ساختا ر داده ای طراحی می شود که می تواند هما نند نورون عمل کند

Output layer

Hidden layer


قابلیتهای شبکه نویسی ، ساختا ر داده ای طراحی می شود که می تواند هما نند نورون عمل کندعصبی

  • مدل سازی و تقریب توابع

  • استخراج ویژگی ها

  • پردازشسیگنال

  • یادگیری

  • طبقه و خوشه بندی

  • فشرده سازی

  • بهینه سازی

  • کنترل و شناسایی سیستم

  • حافظه های انجمنی


  • شبکه عصبی در بسیاری موارد شبیه به رگرسیون است. تفاوت اساسی در :

  • ورودی شبکه

  • برخی کاربردها


مسائل ندارد بلکه شکل دیگری از بیان روابط ریاضی استمناسببراییادگیریشبکههایعصبی

  • خطا در داده های آموزشی وجود داشته باشد. مثلمسائلی که داده های آموزشی دارای نویز حاصل از دادهای سنسورها نظیر دوربین و میکروفن ها هستند.

  • مواردی که نمونه ها توسط مقادیر زیادی زوج ویژگی-مقدار نشان داده شده باشند. نظیر داده های حاصل از یک دوربین ویدئوئی.

  • تابع هدف دارای مقادیر پیوسته باشد.

  • زمان کافی برای یادگیری وجود داشته باشد. این روش در مقایسه با روشهای دیگر نظیر درخت تصمیم نیاز به زمان بیشتری برای یادگیری دارد.

  • نیازیبهتعبیرتابعهدفنباشد. زیرابهسختیمیتواناوزانیادگرفتهشدهتوسطشبکهراتعبیرنمود.


فرآیند یادگیری شبکه ندارد بلکه شکل دیگری از بیان روابط ریاضی است

وظیفه ی اصلی شبکه های عصبی یادگیری است.

یادگیری تحت نظارت(supervised)

یادگیری بدون نظارت(unsupervised)

یادگیری تقویتی(reinforcement)


Perceptron ندارد بلکه شکل دیگری از بیان روابط ریاضی است

یک پرسپترونبرداریازورودیهایبامقادیرحقیقیراگرفتهویکترکیبخطیازاینورودیهارامحاسبهمیکند. اگرحاصلازیکمقدارآستانهبیشتربودخروجی پرسپترونبرابربا 1 ودرغیراینصورتمعادل -1 خواهدبود.


Linearly separable ندارد بلکه شکل دیگری از بیان روابط ریاضی است

+

+

+

+

+

-

-

-

+

-

-

-

Linearly separable

Non-linearly separable


bias ندارد بلکه شکل دیگری از بیان روابط ریاضی است

برای اینکه برای یادگیری بایاس نیازی به استفاده از قانون دیگری نداشته باشیم بایاس را بصورت یک ورودی با مقدار ثابت 1 در نظر گرفته و وزن W0 را به آن اختصاص میدهیم.


یادگیری ندارد بلکه شکل دیگری از بیان روابط ریاضی استیک پرسپترون

http://research.yale.edu/ysm/images/78.2/articles-neural-neuron.jpg

  • خروحی پرسپترونتوسطرابطهزیرمشخصمیشود:

  • کهبرایسادگیآنرامیتوانبصورتزیرنشانداد:

if

otherwise

where

=

1 if y > 0

-1 otherwise


آموزش ندارد بلکه شکل دیگری از بیان روابط ریاضی است پرسپترون

الگوریتمیادگیری پرسپترون:

  • مقادیریتصادفیبهوزنهانسبتمیدهیم

  • پرسپترونرابهتکتکمثالهایآموزشیاعمالمیکنیم. اگرمثالغلطارزیابیشودمقادیروزنهای پرسپترونراتصحیحمیکنیم.

  • آیاتمامیمثالهایآموزشیدرستارزیابیمیشوند:

    • بله پایانالگوریتم

    • خیربهمرحله 2 برمیگردیم


یافتن مقادیر صحیح اوزان در پرسپترون :

دوروش مختلف :

  • قانون پرسپترون

  • قانوندلتا


قانون پرسپترون : پرسپترون

  • براییکمثالآموزشیدرهرمرحلهوزنها

    براساسقانونپرسپترونبصورتزیرتغییرمیکند:

    کهدرآن

= η ( t – o ) xi

t: target output

o: output generated by the perceptron

η: constant called the learning rate (e.g., 0.1)

اثباتشدهاستکهبراییکمجموعهمثالجداپذیرخطیاینروشهمگراشدهو پرسپترونقادربهجداسازیصحیحمثالهاخواهدشد.


قانون پرسپترون :دلتاDelta Rule

  • وقتیکهمثالهابصورتخطیجداپذیرنباشندقانون پرسپترونهمگرانخواهدشد. برایغلبهبراینمشکلازقانوندلتااستفادهمیشود.

  • ایدهاصلیاینقانوناستفادهاز gradient descent برایجستجودرفضایفرضیهوزنهایممکنمیباشد. اینقانونپایهروشBackpropagationاستکهبرایآموزششبکهباچندیننرونبههممتصلبکارمیرود.


قانون پرسپترون :دلتاDelta Rule

  • برایدرکبهتراینروشآنرابهیک پرسپترونفاقدحدآستانهاعمالمیکنیم. درانجالازماستابتداتعریفیبرایخطایآموزشارائهشود. یکتعریفمتداولاینچنیناست:


قانون پرسپترون :دلتاDelta Rule

  • براییکمثالآموزشیدرهرمرحلهوزنهابراساسقانوندلتابصورتزیرتغییرمیکند:

    η: learning rate (e.g., 0.1)


Multilayer پرسپترون :Architecture

Output

layer

Input

layer

Hidden Layers


1 پرسپترون :

-10 -8 -6 -4 -2 2 4 6 8 10

Activation Functions

Sigmoidal Function


الگوریتم پرسپترون :Back propagation

  • براییادگیریوزنهاییکشبکهچندلایهازروش Back Propagation استفادهمیشود. دراینروشبااستفادهاز gradient descent سعیمیشودتامربعخطایبینخروجیهایشبکهوتابعهدفمینیممشود.

  • خطابصورتزیرتعریفمیشود:

مرادازoutputs خروجیهایمجموعهواحدهایلایهخروجیوtkdوokdمقدارهدفوخروجیمتناظربا k امینواحدخروجیومثالآموزشی d است.


Back-propagation پرسپترون :Algorithm


انتشار پرسپترون :بهسمتجلو(Forward Step)

برایهرمثال X مقدارخروجیهرواحدرامحاسبهکنیدتابهگرههایخروجیبرسید.

مقدار خروجی هر نرون لایه خروجی را محاسبه می کنیم.


انتشار پرسپترون :بهسمتعقب(Backward Step)

  • برایهرواحدخروجیجملهخطارابصورتزیرمحاسبهکنید:

  • برایهرواحدمخفیجملهخطارابصورتزیرمحاسبهکنید:

  • مقدارهروزنرابصورتزیرتغییردهید:

    کهدرآن :


الگوریتم پرسپترون : BP

  • شبکهایباninگرهورودی،nhiddenگرهمخفی،وnoutگرهخروجیایجادکنید.

  • همهوزنهارابایکمقدارتصادفیکوچکعدددهیکنید.

  • تارسیدنبهشرطپایانی ) کوچکشدنخطا( مراحلزیرراانجامدهید:

    برایهر xمتعلقبهمثالهایآموزشی:

    مثال X رابهسمتجلودرشبکهانتشاردهید

    خطای E رابهسمتعقبدرشبکهانتشاردهید.


مرور پرسپترون :الگوریتمBP

  • اینالگوریتمیکجستجوی gradient descent درفضایوزنهاانجاممیدهد.

  • ممکناستدریکمینیمممحلیگیربیافتد

  • درعملبسیارموثربودهاست

    برایپرهیزازمینیمممحلیروشهایمختلفیوجوددارد:

    • افزودنممنتم

    • استفادهازstochastic gradient descent

    • استفادهازشبکههایمختلفبامقادیرمتفاوتیبرایوزنهایاولیه


افزودن پرسپترون :ممنتم

  • میتوانقانونتغییروزنهاراطوریدرنظرگرفتکهتغییروزندرتکرار n امتاحدیبهاندازهتغییروزندرتکرارقبلیبستگیداشتهباشد.

    کهدرآنمقدارممنتمα بصورت0 <= α <= 1میباشد.

    افزودنممنتمباعثمیشودتاباحرکتدرمسیرقبلیدرسطحخطا:

    • ازگیرافتادندرمینیممحلیپرهیزشود

    • باافزایشتدریجیمقدارپلهتغییرات،سرعتجستجوافزایشیابد.


قدرت پرسپترون :تعمیموoverfitting

  • شرطپاینالگوریتم BP چیست؟

  • یکانتخابایناستکهالگوریتمراآنقدرادامهدهیمتاخطاازمقدارمعینیکمترشود. اینامرمیتواندمنجربهoverfittingشود.

Validation set error

Error

Training set error

Number of weight updates


دلایل پرسپترون :رخدادنoverfitting

  • overfittingناشیازتنظیموزنهابرایدرنظرگرفتنمثالهاینادریاستکهممکناستباتوزیعکلیدادههامطابقتنداشتهباشند. تعدادزیادوزنهاییکشبکهعصبیباعثمیشودتاشبکهدرجهآزادیزیادیبرایانطباقبااینمثالهاداشتهباشد.

  • باافزایشتعدادتکرار،پیچیدگیفضایفرضیهیادگرفتهشدهتوسطالگوریتمبیشتروبیشترمیشودتاشبکهبتواندنویزومثالهاینادرموجوددرمجموعهآموزشرابدرستیارزیابینماید.


راه پرسپترون :حل

  • استفادهازیکمجموعهتائیدVallidationوتوقفیادگیریهنگامیکهخطادراینمجموعهبهاندازهکافیکوچکمیشود.

  • بایاسکردنشبکهبرایفضاهایفرضیهسادهتر: یکراهمیتوانداستفادهازweight decayباشدکهدرآنمقداروزنهادرهربارتکرارباندازهخیلیکمیکاهشدادهمیشود.

  • k-fold cross validation وقتیکهتعدادمثالهایآموزشیکمباشدمیتوان m دادهآموزشیرابه K دستهتقسیمبندینمودهوآزمایشرابهتعداد k دفعهتکرارنمود. درهردفعهیکیازدستههابعنوانمجموعهتستوبقیهبعنوانمجموعهآموزشیاستفادهخواهندشد. تصمیمگیریبراساسمیانگیننتایجانجاممیشود.


شرط پرسپترون :خاتمه

معمولاالگوریتم BP پیشازخاتمههزارانباربااستفادههماندادههایآموزشیتکرارمیگرددشروطمختلفیرامیتوانبرایخاتمهالگوریتمبکاربرد:

  • توقفبعدازتکراربهدفعاتمعین

  • توقفوقتیکهخطاازیکمقدارتعیینشدهکمترشود.

  • توقفوقتیکهخطادرمثالهایمجموعهتائیدازقاعدهخاصیپیروینماید.

    اگردفعاتتکرارکمباشدخطاخواهیمداشتواگرزیادباشدمسئلهOverfittingرخخواهدداد.


روشهای پرسپترون :دیگر

راههایبسیارمتنوعیبرایایجادشبکههایجدیدوجودداردازجمله:

  • استفادهازتعاریفدیگریبرایتابعخطا

  • استفادهازروشهایدیگریبرایکاهشخطادرحینیادگیری

    • Hybrid Global Learning

    • Simulated Annealing

    • Genetic Algorithms

  • استفادهازتوابعدیگریدرواحدها

    • Radial Basis Functions

  • استفادهازساختارهایدیگریبرایشبکه

    • Recurrent Network


روشهای مختلف برای آموزش شبکه های عصبی پیشخور FNN

  • الگوریتم پس انتشار خطا

  • الگوریتم ژنتیک

  • الگوریتم Stimulated Annealing

  • الگوریتم PSO یا Particle Swarm Optimization

  • و ...


مزیت های شبکه عصبی عصبی پیشخور

  • روش های خود تطبیقی برای مبنای داده هستند

  • می تواند هر تابعی را با دقت دلخواه تخمین بزند

  • در تخمین احتمالات عقبی (posterior probability) توانا هستند

  • یادگیری انطباق پذیر

  • انجام محاسبات بصورت موازی

  • تحمل اشتباه بدون ایجاد وقفه

  • مدل های غیر خطی هستند


معایب عصبی پیشخور ANNها

  • دستورات مشخصی برای طراحی شبكه جهت یك كاربرد اختیاری وجود ندارد.

  • دقت نتایج بستگی زیادی به اندازه مجموعه آموزش دارد.

  • آموزش شبكه ممكن است مشكل یا حتی غیرممكن باشد.

  • پیش‌بینی عملكرد آینده شبكه ( عمومیت یافتن ) آن به سادگی امكان‌پذیر نیست..

  • در مورد مسایل مدل‌سازی، نمی‌توان صرفاً با استفاده از شبكه عصبی به فیزیك مسأله پی برد. به عبارت دیگر مرتبط ساختن پارامترها یا ساختار شبكه به پارامترهای فرآیند معمولاً غیرممكن است.


مقدمه ای بر عصبی پیشخور RBF

  • در سال ۱۹۹۰ﻣﻴﻼﺩﻱ ﺑﻮﺩ ﮐﻪ ﮊﻳﺮﻭﺳﻲ، ﭘﻮﮔﻲ ﻭ ﻫﻤﭽﻨﻴﻦ ﻫﺎﺭﺗﻤﻦ ﻭ ﮐﭙﻠﺮ ﺍﺛﺒﺎﺕ ﮐﺮﺩﻧﺪ ﮐﻪ ﺷـﺒﮑﻪ ﻫـﺎﻱ ﺑـﺎ ﺗـﺎﺑﻊ ﻣﺪﺍﺭ ﺷﻌﺎﻋﻲ ﺗﻘﺮﻳﺐ ﺳﺎﺯﻫﺎﻱ ﺑﺴﻴﺎﺭ ﻗﺪﺭﺗﻤﻨﺪﻱﻫﺴﺘﻨﺪ ﺑﻄﻮﺭﻳﮑﻪ ﺑﺎ ﺩﺍﺷﺘﻦ ﺗﻌﺪﺍﺩ ﻧﺮﻭﻥ ﻫﺎﻱ ﮐﺎﻓﻲ ﺩﺭ ﻻﻳﻪﻣﺨﻔﻲ، ﻗﺎﺩﺭ ﺑﻪ ﺗﻘﺮﻳﺐ ﺳﺎﺯﻱ ﻫﺮ ﺗﺎﺑﻊ ﭘﻴﻮﺳﺘﻪ ﻭ ﺑﺎ ﻫﺮ ﺩﺭﺟﻪ ﺩﻗﺖ ﻣﻲ ﺑﺎﺷﻨﺪ.



ﺗﺎﺑﻊ ﻻﻳﻪ ﭘﻨﻬﺎﻥ

ﺗﺎﺑﻊ ﻣﻌﺮﻭﻑ ﺩﺭ ﺷﺒﮑﻪ ﻫﺎﻱ ﺷﻌﺎﻋﻲ ﻫﻤﺎﻥ ﺗﺎﺑﻊ ﮔﻮﺳﻲ ﻳﺎ ﻧﻤﺎﻳﻲ ﺑﻪ ﻓﺮﻡ ﺯﻳﺮ ﻣﻲ ﺑﺎﺷﺪ:


  • تعیین موقعیت مراکز:

  • خوشه بندی

  • الگوریتم kمیانگین

  • تعیین انحراف استاندارد


ﭼﺮﺧﻪ ﺁﻣﻮﺯﺵ ﺷﺎﻣﻞ ﻣﺮﺍﺣﻞ ﺯﻳﺮ ﺍﺳﺖ:

ﺑﺮﺩﺍﺭ ﻭﺭﻭﺩﻱ xi ﺍﺯ ﻣﺠﻤﻮﻋﻪ ﺁﻣﻮﺯﺷﻲ، ﺑﻪ ﺷﺒﮑﻪ ﺍﺭﺍﺋﻪ ﻣﻲ ﺷﻮﺩ

ﺧﺮﻭﺟﻲ ﻫﺎﻱ ﻧﺮﻭﻥ ﻫﺎﻱ ﻻﻳﻪ ﻣﺨﻔﻲ ﻣﺤﺎﺳﺒﻪ ﺷـﺪﻩ ﻭ ﺑـﺎ ﺿـﺮﺏ ﺁﻥ ﺩﺭ ﻣـﺎﺗﺮﻳﺲ ﺿـﺮﺍﺋﺐ ﺑﺮﺩﺍﺭ ﺧﺮﻭﺟﻲ f(xi)ﺷﮑﻞ ﻣﻲ ﮔﻴﺮﺩ.

ﺑﺮﺩﺍﺭ ﺧﺮﻭﺟﻲ ﺷﺒﮑﻪ (f(xi ﻣﺤﺎﺳﺒﻪ ﻭ ﺑﺎ ﺑﺮﺩﺍﺭ ﻫﺪﻑ yiﻣﻘﺎﻳـﺴﻪ ﻣـﻲ ﺷـﻮﺩ. ﻣـﺎﺗﺮﻳﺲ ﻭﺯﻥ ﻻﻳﻪ ﺩﻭﻡ W ﺩﺭ ﺟﻬﺖ ﮐﺎﻫﺶ

ﺍﺧﺘﻼﻑ ﺩﻭ ﺑﺮﺩﺍﺭ ﻓﻮﻕ ﺗﻌﺪﻳﻞ ﻣﻲ ﺷﻮﺩ. ﺍﻏﻠﺐ ﺟﻬـﺖ ﺍﻳـﻦ ﮐـﺎﺭ ﺍﺯ ﺭﺍﺑﻄـﻪزیر ﺍﺳﺘﻔﺎﺩﻩ ﻣﻲ ﺷﻮﺩ.

4. ﮔﺎﻣﻬﺎﻱ ۱ ﺗﺎ ۳ ﺟﻬﺖ ﻫﺮ ﺑﺮﺩﺍﺭ ﺁﻣﻮﺯﺷﻲ ﺗﮑﺮﺍﺭ ﻣﻲ ﺷﻮﺩ.

5. ﮔﺎﻣﻬﺎ ﻱ ۱ ﺗﺎ ۴ ﺗﺎ ﺯﻣﺎﻧﻲ ﮐﻪ ﺧﻄﺎ ﺑﻪ ﺣﺪ ﻗﺎﺑﻞ ﻗﺒﻮﻟﻲ ﺑﺮﺳﺪ ﺍﺩﺍﻣﻪ ﻣﻲ ﻳﺎﺑﻨﺪ ﻭ ﺩﺭ ﺍﻳـﻦ ﻧﻘﻄـﻪ، ﺁﻣﻮﺯﺵ ﭘﺎﻳﺎﻥ ﻣﻲ ﭘﺬﻳﺮﺩ.


کاربردهای ﺯﻳﺮ ﺍﺳﺖ:شبکه های عصبی مصنوعی

  • تشخيص الگو(Pattern Recognition) مانند تشخيص خط(Character Recognition)

  • شناسايیگفتار(Speech Recognition)

  • پردازش تصوير(Image Processing)

  • دسته‌بندي(Classification)

  • كنترل يا مدل‌سازی سيستم‌هايی كه ساختار داخلی ناشناخته يا بسيار پيچيده‌ای دارند


کاربردهای ﺯﻳﺮ ﺍﺳﺖ:شبکه های عصبی مصنوعی(ادامه ...)

  • اختصار سخن

  • بازبینی امضا

  • ارزیابی سرمایه

  • پیش بینی فروشهای آینده و نیازهای محصول

  • کلاسه بندی نمودارهای مشتری/بازار

  • پیش بینی هوا

  • پیش بینی محصول

  • مدل کردن کنترل فرآیند

  • تشخیص هدف

  • شبیه سازی مسیر

  • تشخیص بیماری

  • تشخیص چهره

  • انواع جدید سنسورها

  • پیگیری هدف

  • هدایت جنگ افزارها

  • شناسایی تصویر /سیگنال

  • بینایی ماشین

  • مدل کردن غیر خطی

  • ترکیب صدا

  • کنترل فرآیند ساخت

  • آنالیز مالی


شبکه های عصبی و طبقه بندی کننده های مرسوم

  • شبکه های عصبی یک ابزار مهم برای طبقه بندی محسوب می شود

  • بسیاری مسائل می توانند به عنوان مسائل طبقه بندی تلقی شود. مثلا

    • پیش بینی ورشکستگی

    • دادن وام

    • تشخیص پزشکی

    • تشخیص کاراکتر دست خط

    • تشخیص گفتار


بررسي مدلی ازكاربرد شبکه های عصبی در مديريت کيفيت(رقابت پذيری)

Failure mode and effects analysis

شدت * وقوع * بازيابي = RPN


  • RPN عصبی در مديريت کيفيت(رقابت پذيری)را عدد اولويت ريسك گويند كه از ضرب شدت ،وقوع و بازيابي به دست مي آيد .

  • در اين تكنيك در ابتدا خروجی را شناخته و سپس به بررسي الگوي بالقوه شكست ،عوامل شكست ،آثار بالقوه شكست وكنترلهاي كنوني پرداخته و در مورد هر كدام از موارد مربوطه به بررسي درجه شدت ، وقوع و بازيابي (درجه تشخيص) مي پردازند . در نهايت با درنظر گرفتن موارد مربوطه اقدامات پيشنهادي را در مورد آن انجام مي دهند .

  • هدف اصلي در اين مدل پيشگيري از وقوع عيب در فرآيند و پيش بيني وضعيت بازار يا کار آن قبل از وقوع جهت آناليز بهتر عيوب و بررسي خطاهاي بالقوه موجود در فرآيند کار است.




Particle Swarm Optimization عصبی صنوعی

  • یک تکنیک تکاملی (Evolutionary) برای انجام محاسبات است.

  • توسط Kennedy و Eberhart در سال 1995ایجاد شده است.

  • از رفتار اجتماعی دسته پرندگان الهام گرفته است.

  • همانند الگوریتم ژنتیک ، PSO یک ابزار بهینه سازی است که با مجموعه ای از پاسخهای بالقوه (Population) کارش را آغاز می کند و با بروز کردن نسلها به دنبال پیدا کردن نقطه بهینه می باشد.

  • بر خلاف الگوریتم ژنتیک، الگوریتم PSO هیچگونه عملگر تکاملی پیچیده مثل ترکیب و جهش را ندارد.

  • در الگوریتم PSO ، پاسخهای بالقوه را ذره می نامند و این ذرات با حرکت کردن در فضای مسئله و با تمایل پیدا کردن به سمت بهترین پاسخی که تا کنون بدست آمده، بروز می شوند.


x عصبی صنوعی2

max

x1

min

fitness

Particle Swarm Optimization –Concept


  • هر ذره دارای حافظه است و بهترین موقعیت خودش که تا کنون بدست آورده (Pb) و بهترین موقعیت همسایگانش (Pg) را در هر تکرار در حافظه اش نگه می دارد.

  • در هر تکرار، هر ذره بر اساس بهترین موقعیتش (Pb) و بهترین موقعیت همسایگانش (Pg) ، بردار سرعتش را تنظیم می کند.


Particle Swarm Optimization – The Basic Model موقعیت خودش که تا کنون بدست آورده


Particle Swarm Optimization – The Basic Model موقعیت خودش که تا کنون بدست آورده

Rules of movement

Vid(t+1)= Vid(t)+c1* rand()*[Pid(t)-xid(t)]+c2*rand()*[Pgd(t)-xid(t)]

Xid(t+1)=xid(t)+vid(t+1) 1≤i ≤n 1 ≤d ≤ D

c1و c2 ثابتهای شتاب دهنده با مقادیر مثبت و rand() عددی تصادفی بین 0 و 1 می باشد.


Particle Swarm Optimization – The Basic Model موقعیت خودش که تا کنون بدست آورده


x موقعیت خودش که تا کنون بدست آورده 2

max

x1

min

fitness

Particle Swarm Optimization –Concept

search space


x موقعیت خودش که تا کنون بدست آورده 2

max

x1

min

fitness

Particle Swarm Optimization –Animation

search space


x موقعیت خودش که تا کنون بدست آورده 2

max

x1

min

fitness

Particle Swarm Optimization –Animation

search space


x موقعیت خودش که تا کنون بدست آورده 2

max

x1

min

fitness

Particle Swarm Optimization –Animation

search space


x موقعیت خودش که تا کنون بدست آورده 2

max

x1

min

fitness

Particle Swarm Optimization –Animation

search space


x موقعیت خودش که تا کنون بدست آورده 2

max

x1

min

fitness

Particle Swarm Optimization –Animation

search space


x موقعیت خودش که تا کنون بدست آورده 2

max

x1

min

fitness

Particle Swarm Optimization –Animation

search space


x موقعیت خودش که تا کنون بدست آورده 2

max

x1

min

fitness

Particle Swarm Optimization – Animation

search space


x موقعیت خودش که تا کنون بدست آورده 2

max

x1

min

fitness

Particle Swarm Optimization –Animation

search space


x موقعیت خودش که تا کنون بدست آورده 2

max

x1

min

fitness

Particle Swarm Optimization –Animation

search space


x موقعیت خودش که تا کنون بدست آورده 2

max

x1

min

fitness

Particle Swarm Optimization –Animation

search space


موقعيت هر ذره در گروه مجموعه اي از وزن هاي شبكه را براي تكرار جاري نشان مي دهد . بعد هر ذره برابر با تعداد وزنهايي كه در شبكه وجود دارد . ذرات در فضاي وزن حركت مي كنند و سعي مي كنند خطا را مي نيمم سازند . در شكل زیر ساختار يك ذره نشان داده شده است . تغيير موقعيت يك ذره به معناي به روزرساني وزن هاي شبكه در جهت كاهش ميانگين مربعات خطاي تكرار جاري است


Particle swarm optimization flow chart
Particle Swarm Optimization Flow Chart از وزن هاي شبكه

Flow chart depicting the General PSO Algorithm:

Start

Initialize particles with random position

and velocity vectors.

For each particle’s position (p)

evaluate fitness

Loop until all particles exhaust

If fitness(p) better than

fitness(pbest) then pbest= p

Loop until max iter

Set best of pBests as gBest

Update particles velocity (eq. 1) and

position (eq. 3)

Stop: giving gBest, optimal solution.


مراجع و منابع: از وزن هاي شبكه

www.rsh.ir

http://en.wikipedia.org/wiki/Neural_network

http://www.neuralnetworksolutions.com/resources.php

http://www.tandf.co.uk/journals/titles/0954898X.asp

http://www.30sharp.com

پیشگویی زلزله بوسیله شبکه عصبی مصنوعی،علیرضا نقش،بهاره بهمن پور

بررسي مدلی ازكاربرد شبکه های عصبی در مديريت کيفيت(رقابت پذيری)،محمدرضا شهرياري


ad