slide1
Download
Skip this Video
Download Presentation
مباحث :

Loading in 2 Seconds...

play fullscreen
1 / 78

مباحث : - PowerPoint PPT Presentation


  • 238 Views
  • Uploaded on

مباحث :. معرفی شبکه های عصبی مصنوعی( ANN ها) مبانی شبکه های عصبی مصنوعی توپولوژی شبکه فرآیند یادگیری شبکه تجزیه و تحلیل داده ها توسط شبکه های عصبی مصنوعی ایده ی اصلی شبکه های عصبی مصنوعی معایب شبکه های عصبی مصنوعی کاربردهای شبکه های عصبی مصنوعی. مقدمه: زمان پاسخ گویی نرون طبیعی :

loader
I am the owner, or an agent authorized to act on behalf of the owner, of the copyrighted work described.
capcha
Download Presentation

PowerPoint Slideshow about 'مباحث :' - eve


An Image/Link below is provided (as is) to download presentation

Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author.While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server.


- - - - - - - - - - - - - - - - - - - - - - - - - - E N D - - - - - - - - - - - - - - - - - - - - - - - - - -
Presentation Transcript
slide2
مباحث :

معرفی شبکه های عصبی مصنوعی(ANNها)

مبانی شبکه های عصبی مصنوعی

توپولوژی شبکه

فرآیند یادگیری شبکه

تجزیه و تحلیل داده ها توسط شبکه های عصبی مصنوعی

ایده ی اصلی شبکه های عصبی مصنوعی

معایب شبکه های عصبی مصنوعی

کاربردهای شبکه های عصبی مصنوعی

slide3
مقدمه:

زمان پاسخ گویی نرون طبیعی :

زمان پاسخ گویی ترانزیستور :

با این حال عملیات در مغز انسان خیلی سریعتر از کامپیوتر است.

slide4
معرفی ANN ها
  • یک سیستم پردازشی داده ها که از مغز انسان ایده گرفته و پردازش داده ها را به عهده ی پردازنده های کوچک و بسیار زیادی سپرده که به صورت شبکه ای به هم پیوسته و موازی با یکدیگر رفتار می کنند تا یک مسئله را حل کنند.
slide5
معرفی ANN ها
  • یک سیستم پردازشی داده ها که از مغز انسان ایده گرفته و پردازش داده ها را به عهده ی پردازنده های کوچک و بسیار زیادی سپرده که به صورت شبکه ای به هم پیوسته و موازی با یکدیگر رفتار می کنند تا یک مسئله را حل کنند.
slide6
معرفی ANN ها
  • یک سیستم پردازشی داده ها که از مغز انسان ایده گرفته و پردازش داده ها را به عهده ی پردازنده های کوچک و بسیار زیادی سپرده که به صورت شبکه ای به هم پیوسته و موازی با یکدیگر رفتار می کنند تا یک مسئله را حل کنند.
slide7
در این شبکه ها به کمک دانش برنامه نویسی ، ساختا ر داده ای طراحی می شود که می تواند هما نند نورون عمل کند
slide12
آموزش

اعتبار سنجی

اجرا

slide13
output 1

0.9

Input 1

0.3

0.78

output 2

Input 2

0.3

0.7

output 3

0.8

آموزش دیدن شبکه های عصبی در واقع چیزی جز تنظیم وزن های ارتباطی این نرون ها به ازائ دریافت مثال های مختلف نیست تا خروجی شبکه به سمت خروجی مطلوب همگرا شود.

slide14
توپولوژی شبکه

وضعیت نسبی سلولها در شبکه(تعداد و گروه بندی و نوع اتصالات آنها)را توپولوژی شبکه گویند.توپولوژی در واقع سیستم اتصال سخت افزار نورونها به یکدیگر است که توام با نرم افزار مربوطه (یعنی روش ریاضی جریان اطلاعات و محاسبه ی وزنها)نوع عملکرد شبکه ی عصبی را تعیین می کند.

در این توپولوژی یک لایه ی ورودی وجود دارد که اطلاعات را دریافت می کند،تعدادی لایه یمخفی وجود دارد که اطلاعات را از لایه های قبلی می گیرند و در نهایت یک لایه ی خروجی وجود دارد که نتیجه ی محاسبات به آنجا میرود و جوابها در آن قرار میگیرند.

FeedForward topology

Recurrent topology

slide15
Input layer

Output layer

Hidden layer

slide16
قابلیتهای شبکهعصبی
  • مدل سازی و تقریب توابع
  • استخراج ویژگی ها
  • پردازشسیگنال
  • یادگیری
  • طبقه و خوشه بندی
  • فشرده سازی
  • بهینه سازی
  • کنترل و شناسایی سیستم
  • حافظه های انجمنی
slide17
شبکه عصبی به خودی خود هیچ ارزشی ندارد بلکه شکل دیگری از بیان روابط ریاضی است.
  • شبکه عصبی در بسیاری موارد شبیه به رگرسیون است. تفاوت اساسی در :
  • ورودی شبکه
  • برخی کاربردها
slide18
مسائلمناسببراییادگیریشبکههایعصبی
  • خطا در داده های آموزشی وجود داشته باشد. مثلمسائلی که داده های آموزشی دارای نویز حاصل از دادهای سنسورها نظیر دوربین و میکروفن ها هستند.
  • مواردی که نمونه ها توسط مقادیر زیادی زوج ویژگی-مقدار نشان داده شده باشند. نظیر داده های حاصل از یک دوربین ویدئوئی.
  • تابع هدف دارای مقادیر پیوسته باشد.
  • زمان کافی برای یادگیری وجود داشته باشد. این روش در مقایسه با روشهای دیگر نظیر درخت تصمیم نیاز به زمان بیشتری برای یادگیری دارد.
  • نیازیبهتعبیرتابعهدفنباشد. زیرابهسختیمیتواناوزانیادگرفتهشدهتوسطشبکهراتعبیرنمود.
slide19
فرآیند یادگیری شبکه

وظیفه ی اصلی شبکه های عصبی یادگیری است.

یادگیری تحت نظارت(supervised)

یادگیری بدون نظارت(unsupervised)

یادگیری تقویتی(reinforcement)

slide20
Perceptron

یک پرسپترونبرداریازورودیهایبامقادیرحقیقیراگرفتهویکترکیبخطیازاینورودیهارامحاسبهمیکند. اگرحاصلازیکمقدارآستانهبیشتربودخروجی پرسپترونبرابربا 1 ودرغیراینصورتمعادل -1 خواهدبود.

slide21
Linearly separable

+

+

+

+

+

-

-

-

+

-

-

-

Linearly separable

Non-linearly separable

slide22
bias

برای اینکه برای یادگیری بایاس نیازی به استفاده از قانون دیگری نداشته باشیم بایاس را بصورت یک ورودی با مقدار ثابت 1 در نظر گرفته و وزن W0 را به آن اختصاص میدهیم.

slide23
یادگیرییک پرسپترون

http://research.yale.edu/ysm/images/78.2/articles-neural-neuron.jpg

  • خروحی پرسپترونتوسطرابطهزیرمشخصمیشود:
  • کهبرایسادگیآنرامیتوانبصورتزیرنشانداد:

if

otherwise

where

=

1 if y > 0

-1 otherwise

slide24
آموزش پرسپترون

الگوریتمیادگیری پرسپترون:

  • مقادیریتصادفیبهوزنهانسبتمیدهیم
  • پرسپترونرابهتکتکمثالهایآموزشیاعمالمیکنیم. اگرمثالغلطارزیابیشودمقادیروزنهای پرسپترونراتصحیحمیکنیم.
  • آیاتمامیمثالهایآموزشیدرستارزیابیمیشوند:
    • بله پایانالگوریتم
    • خیربهمرحله 2 برمیگردیم
slide25
یافتن مقادیر صحیح اوزان در پرسپترون :

دوروش مختلف :

  • قانون پرسپترون
  • قانوندلتا
slide26
قانون پرسپترون
  • براییکمثالآموزشیدرهرمرحلهوزنها

براساسقانونپرسپترونبصورتزیرتغییرمیکند:

کهدرآن

= η ( t – o ) xi

t: target output

o: output generated by the perceptron

η: constant called the learning rate (e.g., 0.1)

اثباتشدهاستکهبراییکمجموعهمثالجداپذیرخطیاینروشهمگراشدهو پرسپترونقادربهجداسازیصحیحمثالهاخواهدشد.

slide27
قانوندلتاDelta Rule
  • وقتیکهمثالهابصورتخطیجداپذیرنباشندقانون پرسپترونهمگرانخواهدشد. برایغلبهبراینمشکلازقانوندلتااستفادهمیشود.
  • ایدهاصلیاینقانوناستفادهاز gradient descent برایجستجودرفضایفرضیهوزنهایممکنمیباشد. اینقانونپایهروشBackpropagationاستکهبرایآموزششبکهباچندیننرونبههممتصلبکارمیرود.
slide28
قانوندلتاDelta Rule
  • برایدرکبهتراینروشآنرابهیک پرسپترونفاقدحدآستانهاعمالمیکنیم. درانجالازماستابتداتعریفیبرایخطایآموزشارائهشود. یکتعریفمتداولاینچنیناست:
slide29
قانوندلتاDelta Rule
  • براییکمثالآموزشیدرهرمرحلهوزنهابراساسقانوندلتابصورتزیرتغییرمیکند:

η: learning rate (e.g., 0.1)

slide30
MultilayerArchitecture

Output

layer

Input

layer

Hidden Layers

slide31
1

-10 -8 -6 -4 -2 2 4 6 8 10

Activation Functions

Sigmoidal Function

slide32
الگوریتمBack propagation
  • براییادگیریوزنهاییکشبکهچندلایهازروش Back Propagation استفادهمیشود. دراینروشبااستفادهاز gradient descent سعیمیشودتامربعخطایبینخروجیهایشبکهوتابعهدفمینیممشود.
  • خطابصورتزیرتعریفمیشود:

مرادازoutputs خروجیهایمجموعهواحدهایلایهخروجیوtkdوokdمقدارهدفوخروجیمتناظربا k امینواحدخروجیومثالآموزشی d است.

slide34
انتشاربهسمتجلو(Forward Step)

برایهرمثال X مقدارخروجیهرواحدرامحاسبهکنیدتابهگرههایخروجیبرسید.

مقدار خروجی هر نرون لایه خروجی را محاسبه می کنیم.

slide35
انتشاربهسمتعقب(Backward Step)
  • برایهرواحدخروجیجملهخطارابصورتزیرمحاسبهکنید:
  • برایهرواحدمخفیجملهخطارابصورتزیرمحاسبهکنید:
  • مقدارهروزنرابصورتزیرتغییردهید:

کهدرآن :

slide36
الگوریتم BP
  • شبکهایباninگرهورودی،nhiddenگرهمخفی،وnoutگرهخروجیایجادکنید.
  • همهوزنهارابایکمقدارتصادفیکوچکعدددهیکنید.
  • تارسیدنبهشرطپایانی ) کوچکشدنخطا( مراحلزیرراانجامدهید:

برایهر xمتعلقبهمثالهایآموزشی:

مثال X رابهسمتجلودرشبکهانتشاردهید

خطای E رابهسمتعقبدرشبکهانتشاردهید.

slide37
مرورالگوریتمBP
  • اینالگوریتمیکجستجوی gradient descent درفضایوزنهاانجاممیدهد.
  • ممکناستدریکمینیمممحلیگیربیافتد
  • درعملبسیارموثربودهاست

برایپرهیزازمینیمممحلیروشهایمختلفیوجوددارد:

    • افزودنممنتم
    • استفادهازstochastic gradient descent
    • استفادهازشبکههایمختلفبامقادیرمتفاوتیبرایوزنهایاولیه
slide38
افزودنممنتم
  • میتوانقانونتغییروزنهاراطوریدرنظرگرفتکهتغییروزندرتکرار n امتاحدیبهاندازهتغییروزندرتکرارقبلیبستگیداشتهباشد.

کهدرآنمقدارممنتمα بصورت0 <= α <= 1میباشد.

افزودنممنتمباعثمیشودتاباحرکتدرمسیرقبلیدرسطحخطا:

    • ازگیرافتادندرمینیممحلیپرهیزشود
    • باافزایشتدریجیمقدارپلهتغییرات،سرعتجستجوافزایشیابد.
slide39
قدرتتعمیموoverfitting
  • شرطپاینالگوریتم BP چیست؟
  • یکانتخابایناستکهالگوریتمراآنقدرادامهدهیمتاخطاازمقدارمعینیکمترشود. اینامرمیتواندمنجربهoverfittingشود.

Validation set error

Error

Training set error

Number of weight updates

slide40
دلایلرخدادنoverfitting
  • overfittingناشیازتنظیموزنهابرایدرنظرگرفتنمثالهاینادریاستکهممکناستباتوزیعکلیدادههامطابقتنداشتهباشند. تعدادزیادوزنهاییکشبکهعصبیباعثمیشودتاشبکهدرجهآزادیزیادیبرایانطباقبااینمثالهاداشتهباشد.
  • باافزایشتعدادتکرار،پیچیدگیفضایفرضیهیادگرفتهشدهتوسطالگوریتمبیشتروبیشترمیشودتاشبکهبتواندنویزومثالهاینادرموجوددرمجموعهآموزشرابدرستیارزیابینماید.
slide41
راهحل
  • استفادهازیکمجموعهتائیدVallidationوتوقفیادگیریهنگامیکهخطادراینمجموعهبهاندازهکافیکوچکمیشود.
  • بایاسکردنشبکهبرایفضاهایفرضیهسادهتر: یکراهمیتوانداستفادهازweight decayباشدکهدرآنمقداروزنهادرهربارتکرارباندازهخیلیکمیکاهشدادهمیشود.
  • k-fold cross validation وقتیکهتعدادمثالهایآموزشیکمباشدمیتوان m دادهآموزشیرابه K دستهتقسیمبندینمودهوآزمایشرابهتعداد k دفعهتکرارنمود. درهردفعهیکیازدستههابعنوانمجموعهتستوبقیهبعنوانمجموعهآموزشیاستفادهخواهندشد. تصمیمگیریبراساسمیانگیننتایجانجاممیشود.
slide42
شرطخاتمه

معمولاالگوریتم BP پیشازخاتمههزارانباربااستفادههماندادههایآموزشیتکرارمیگرددشروطمختلفیرامیتوانبرایخاتمهالگوریتمبکاربرد:

  • توقفبعدازتکراربهدفعاتمعین
  • توقفوقتیکهخطاازیکمقدارتعیینشدهکمترشود.
  • توقفوقتیکهخطادرمثالهایمجموعهتائیدازقاعدهخاصیپیروینماید.

اگردفعاتتکرارکمباشدخطاخواهیمداشتواگرزیادباشدمسئلهOverfittingرخخواهدداد.

slide43
روشهایدیگر

راههایبسیارمتنوعیبرایایجادشبکههایجدیدوجودداردازجمله:

  • استفادهازتعاریفدیگریبرایتابعخطا
  • استفادهازروشهایدیگریبرایکاهشخطادرحینیادگیری
    • Hybrid Global Learning
    • Simulated Annealing
    • Genetic Algorithms
  • استفادهازتوابعدیگریدرواحدها
    • Radial Basis Functions
  • استفادهازساختارهایدیگریبرایشبکه
    • Recurrent Network
slide44
روشهای مختلف برای آموزش شبکه های عصبی پیشخور FNN
  • الگوریتم پس انتشار خطا
  • الگوریتم ژنتیک
  • الگوریتم Stimulated Annealing
  • الگوریتم PSO یا Particle Swarm Optimization
  • و ...
slide45
مزیت های شبکه عصبی
  • روش های خود تطبیقی برای مبنای داده هستند
  • می تواند هر تابعی را با دقت دلخواه تخمین بزند
  • در تخمین احتمالات عقبی (posterior probability) توانا هستند
  • یادگیری انطباق پذیر
  • انجام محاسبات بصورت موازی
  • تحمل اشتباه بدون ایجاد وقفه
  • مدل های غیر خطی هستند
slide46
معایب ANNها
  • دستورات مشخصی برای طراحی شبكه جهت یك كاربرد اختیاری وجود ندارد.
  • دقت نتایج بستگی زیادی به اندازه مجموعه آموزش دارد.
  • آموزش شبكه ممكن است مشكل یا حتی غیرممكن باشد.
  • پیش‌بینی عملكرد آینده شبكه ( عمومیت یافتن ) آن به سادگی امكان‌پذیر نیست..
  • در مورد مسایل مدل‌سازی، نمی‌توان صرفاً با استفاده از شبكه عصبی به فیزیك مسأله پی برد. به عبارت دیگر مرتبط ساختن پارامترها یا ساختار شبكه به پارامترهای فرآیند معمولاً غیرممكن است.
slide47
مقدمه ای بر RBF
  • در سال ۱۹۹۰ﻣﻴﻼﺩﻱ ﺑﻮﺩ ﮐﻪ ﮊﻳﺮﻭﺳﻲ، ﭘﻮﮔﻲ ﻭ ﻫﻤﭽﻨﻴﻦ ﻫﺎﺭﺗﻤﻦ ﻭ ﮐﭙﻠﺮ ﺍﺛﺒﺎﺕ ﮐﺮﺩﻧﺪ ﮐﻪ ﺷـﺒﮑﻪ ﻫـﺎﻱ ﺑـﺎ ﺗـﺎﺑﻊ ﻣﺪﺍﺭ ﺷﻌﺎﻋﻲ ﺗﻘﺮﻳﺐ ﺳﺎﺯﻫﺎﻱ ﺑﺴﻴﺎﺭ ﻗﺪﺭﺗﻤﻨﺪﻱﻫﺴﺘﻨﺪ ﺑﻄﻮﺭﻳﮑﻪ ﺑﺎ ﺩﺍﺷﺘﻦ ﺗﻌﺪﺍﺩ ﻧﺮﻭﻥ ﻫﺎﻱ ﮐﺎﻓﻲ ﺩﺭ ﻻﻳﻪﻣﺨﻔﻲ، ﻗﺎﺩﺭ ﺑﻪ ﺗﻘﺮﻳﺐ ﺳﺎﺯﻱ ﻫﺮ ﺗﺎﺑﻊ ﭘﻴﻮﺳﺘﻪ ﻭ ﺑﺎ ﻫﺮ ﺩﺭﺟﻪ ﺩﻗﺖ ﻣﻲ ﺑﺎﺷﻨﺪ.
slide49
ﺗﺎﺑﻊ ﻻﻳﻪ ﭘﻨﻬﺎﻥ

ﺗﺎﺑﻊ ﻣﻌﺮﻭﻑ ﺩﺭ ﺷﺒﮑﻪ ﻫﺎﻱ ﺷﻌﺎﻋﻲ ﻫﻤﺎﻥ ﺗﺎﺑﻊ ﮔﻮﺳﻲ ﻳﺎ ﻧﻤﺎﻳﻲ ﺑﻪ ﻓﺮﻡ ﺯﻳﺮ ﻣﻲ ﺑﺎﺷﺪ:

slide50
تعیین پارامترها:
  • تعیین موقعیت مراکز:
  • خوشه بندی
  • الگوریتم kمیانگین
  • تعیین انحراف استاندارد
slide51
ﭼﺮﺧﻪ ﺁﻣﻮﺯﺵ ﺷﺎﻣﻞ ﻣﺮﺍﺣﻞ ﺯﻳﺮ ﺍﺳﺖ:

ﺑﺮﺩﺍﺭ ﻭﺭﻭﺩﻱ xi ﺍﺯ ﻣﺠﻤﻮﻋﻪ ﺁﻣﻮﺯﺷﻲ، ﺑﻪ ﺷﺒﮑﻪ ﺍﺭﺍﺋﻪ ﻣﻲ ﺷﻮﺩ

ﺧﺮﻭﺟﻲ ﻫﺎﻱ ﻧﺮﻭﻥ ﻫﺎﻱ ﻻﻳﻪ ﻣﺨﻔﻲ ﻣﺤﺎﺳﺒﻪ ﺷـﺪﻩ ﻭ ﺑـﺎ ﺿـﺮﺏ ﺁﻥ ﺩﺭ ﻣـﺎﺗﺮﻳﺲ ﺿـﺮﺍﺋﺐ ﺑﺮﺩﺍﺭ ﺧﺮﻭﺟﻲ f(xi)ﺷﮑﻞ ﻣﻲ ﮔﻴﺮﺩ.

ﺑﺮﺩﺍﺭ ﺧﺮﻭﺟﻲ ﺷﺒﮑﻪ (f(xi ﻣﺤﺎﺳﺒﻪ ﻭ ﺑﺎ ﺑﺮﺩﺍﺭ ﻫﺪﻑ yiﻣﻘﺎﻳـﺴﻪ ﻣـﻲ ﺷـﻮﺩ. ﻣـﺎﺗﺮﻳﺲ ﻭﺯﻥ ﻻﻳﻪ ﺩﻭﻡ W ﺩﺭ ﺟﻬﺖ ﮐﺎﻫﺶ

ﺍﺧﺘﻼﻑ ﺩﻭ ﺑﺮﺩﺍﺭ ﻓﻮﻕ ﺗﻌﺪﻳﻞ ﻣﻲ ﺷﻮﺩ. ﺍﻏﻠﺐ ﺟﻬـﺖ ﺍﻳـﻦ ﮐـﺎﺭ ﺍﺯ ﺭﺍﺑﻄـﻪزیر ﺍﺳﺘﻔﺎﺩﻩ ﻣﻲ ﺷﻮﺩ.

4. ﮔﺎﻣﻬﺎﻱ ۱ ﺗﺎ ۳ ﺟﻬﺖ ﻫﺮ ﺑﺮﺩﺍﺭ ﺁﻣﻮﺯﺷﻲ ﺗﮑﺮﺍﺭ ﻣﻲ ﺷﻮﺩ.

5. ﮔﺎﻣﻬﺎ ﻱ ۱ ﺗﺎ ۴ ﺗﺎ ﺯﻣﺎﻧﻲ ﮐﻪ ﺧﻄﺎ ﺑﻪ ﺣﺪ ﻗﺎﺑﻞ ﻗﺒﻮﻟﻲ ﺑﺮﺳﺪ ﺍﺩﺍﻣﻪ ﻣﻲ ﻳﺎﺑﻨﺪ ﻭ ﺩﺭ ﺍﻳـﻦ ﻧﻘﻄـﻪ، ﺁﻣﻮﺯﺵ ﭘﺎﻳﺎﻥ ﻣﻲ ﭘﺬﻳﺮﺩ.

slide52
کاربردهای شبکه های عصبی مصنوعی
  • تشخيص الگو(Pattern Recognition) مانند تشخيص خط(Character Recognition)
  • شناسايیگفتار(Speech Recognition)
  • پردازش تصوير(Image Processing)
  • دسته‌بندي(Classification)
  • كنترل يا مدل‌سازی سيستم‌هايی كه ساختار داخلی ناشناخته يا بسيار پيچيده‌ای دارند
slide53
کاربردهای شبکه های عصبی مصنوعی(ادامه ...)
  • اختصار سخن
  • بازبینی امضا
  • ارزیابی سرمایه
  • پیش بینی فروشهای آینده و نیازهای محصول
  • کلاسه بندی نمودارهای مشتری/بازار
  • پیش بینی هوا
  • پیش بینی محصول
  • مدل کردن کنترل فرآیند
  • تشخیص هدف
  • شبیه سازی مسیر
  • تشخیص بیماری
  • تشخیص چهره
  • انواع جدید سنسورها
  • پیگیری هدف
  • هدایت جنگ افزارها
  • شناسایی تصویر /سیگنال
  • بینایی ماشین
  • مدل کردن غیر خطی
  • ترکیب صدا
  • کنترل فرآیند ساخت
  • آنالیز مالی
slide54
شبکه های عصبی و طبقه بندی کننده های مرسوم
  • شبکه های عصبی یک ابزار مهم برای طبقه بندی محسوب می شود
  • بسیاری مسائل می توانند به عنوان مسائل طبقه بندی تلقی شود. مثلا
    • پیش بینی ورشکستگی
    • دادن وام
    • تشخیص پزشکی
    • تشخیص کاراکتر دست خط
    • تشخیص گفتار
slide55
بررسي مدلی ازكاربرد شبکه های عصبی در مديريت کيفيت(رقابت پذيری)

Failure mode and effects analysis

شدت * وقوع * بازيابي = RPN

slide56
RPNرا عدد اولويت ريسك گويند كه از ضرب شدت ،وقوع و بازيابي به دست مي آيد .
  • در اين تكنيك در ابتدا خروجی را شناخته و سپس به بررسي الگوي بالقوه شكست ،عوامل شكست ،آثار بالقوه شكست وكنترلهاي كنوني پرداخته و در مورد هر كدام از موارد مربوطه به بررسي درجه شدت ، وقوع و بازيابي (درجه تشخيص) مي پردازند . در نهايت با درنظر گرفتن موارد مربوطه اقدامات پيشنهادي را در مورد آن انجام مي دهند .
  • هدف اصلي در اين مدل پيشگيري از وقوع عيب در فرآيند و پيش بيني وضعيت بازار يا کار آن قبل از وقوع جهت آناليز بهتر عيوب و بررسي خطاهاي بالقوه موجود در فرآيند کار است.
slide59
Particle Swarm Optimization
  • یک تکنیک تکاملی (Evolutionary) برای انجام محاسبات است.
  • توسط Kennedy و Eberhart در سال 1995ایجاد شده است.
  • از رفتار اجتماعی دسته پرندگان الهام گرفته است.
  • همانند الگوریتم ژنتیک ، PSO یک ابزار بهینه سازی است که با مجموعه ای از پاسخهای بالقوه (Population) کارش را آغاز می کند و با بروز کردن نسلها به دنبال پیدا کردن نقطه بهینه می باشد.
  • بر خلاف الگوریتم ژنتیک، الگوریتم PSO هیچگونه عملگر تکاملی پیچیده مثل ترکیب و جهش را ندارد.
  • در الگوریتم PSO ، پاسخهای بالقوه را ذره می نامند و این ذرات با حرکت کردن در فضای مسئله و با تمایل پیدا کردن به سمت بهترین پاسخی که تا کنون بدست آمده، بروز می شوند.
slide60
x2

max

x1

min

fitness

Particle Swarm Optimization –Concept

slide61
هر ذره دارای حافظه است و بهترین موقعیت خودش که تا کنون بدست آورده (Pb) و بهترین موقعیت همسایگانش (Pg) را در هر تکرار در حافظه اش نگه می دارد.
  • در هر تکرار، هر ذره بر اساس بهترین موقعیتش (Pb) و بهترین موقعیت همسایگانش (Pg) ، بردار سرعتش را تنظیم می کند.
slide63
Particle Swarm Optimization – The Basic Model

Rules of movement

Vid(t+1)= Vid(t)+c1* rand()*[Pid(t)-xid(t)]+c2*rand()*[Pgd(t)-xid(t)]

Xid(t+1)=xid(t)+vid(t+1) 1≤i ≤n 1 ≤d ≤ D

c1و c2 ثابتهای شتاب دهنده با مقادیر مثبت و rand() عددی تصادفی بین 0 و 1 می باشد.

slide65
x2

max

x1

min

fitness

Particle Swarm Optimization –Concept

search space

slide66
x2

max

x1

min

fitness

Particle Swarm Optimization –Animation

search space

slide67
x2

max

x1

min

fitness

Particle Swarm Optimization –Animation

search space

slide68
x2

max

x1

min

fitness

Particle Swarm Optimization –Animation

search space

slide69
x2

max

x1

min

fitness

Particle Swarm Optimization –Animation

search space

slide70
x2

max

x1

min

fitness

Particle Swarm Optimization –Animation

search space

slide71
x2

max

x1

min

fitness

Particle Swarm Optimization –Animation

search space

slide72
x2

max

x1

min

fitness

Particle Swarm Optimization – Animation

search space

slide73
x2

max

x1

min

fitness

Particle Swarm Optimization –Animation

search space

slide74
x2

max

x1

min

fitness

Particle Swarm Optimization –Animation

search space

slide75
x2

max

x1

min

fitness

Particle Swarm Optimization –Animation

search space

slide76
موقعيت هر ذره در گروه مجموعه اي از وزن هاي شبكه را براي تكرار جاري نشان مي دهد . بعد هر ذره برابر با تعداد وزنهايي كه در شبكه وجود دارد . ذرات در فضاي وزن حركت مي كنند و سعي مي كنند خطا را مي نيمم سازند . در شكل زیر ساختار يك ذره نشان داده شده است . تغيير موقعيت يك ذره به معناي به روزرساني وزن هاي شبكه در جهت كاهش ميانگين مربعات خطاي تكرار جاري است
particle swarm optimization flow chart
Particle Swarm Optimization Flow Chart

Flow chart depicting the General PSO Algorithm:

Start

Initialize particles with random position

and velocity vectors.

For each particle’s position (p)

evaluate fitness

Loop until all particles exhaust

If fitness(p) better than

fitness(pbest) then pbest= p

Loop until max iter

Set best of pBests as gBest

Update particles velocity (eq. 1) and

position (eq. 3)

Stop: giving gBest, optimal solution.

slide78
مراجع و منابع:

www.rsh.ir

http://en.wikipedia.org/wiki/Neural_network

http://www.neuralnetworksolutions.com/resources.php

http://www.tandf.co.uk/journals/titles/0954898X.asp

http://www.30sharp.com

پیشگویی زلزله بوسیله شبکه عصبی مصنوعی،علیرضا نقش،بهاره بهمن پور

بررسي مدلی ازكاربرد شبکه های عصبی در مديريت کيفيت(رقابت پذيری)،محمدرضا شهرياري

ad