რა სჭირს უკან გამრავლებას?

რა სჭირს უკან გამრავლებას?
რა სჭირს უკან გამრავლებას?
Anonim

მოკლედ, თქვენ ვერ გააკეთებთ უკან გავრცელებას, თუ არ გაქვთ ობიექტური ფუნქცია. თქვენ ვერ გექნებათ ობიექტური ფუნქცია, თუ არ გაქვთ საზომი პროგნოზირებულ მნიშვნელობასა და ეტიკეტირებულ (ფაქტობრივი ან სასწავლო მონაცემების) მნიშვნელობას შორის. ასე რომ, „უკონტროლო სწავლის“მისაღწევად, შესაძლოა გქონდეთ გრადიენტის გამოთვლის უნარი.

რა შეზღუდვები აქვს უკან გამრავლებას?

უკუ გავრცელების ალგორითმის ნაკლოვანებები:

ის ეყრდნობა შეყვანას კონკრეტული პრობლემის შესასრულებლად. მგრძნობიარეა რთული/ხმაურიანი მონაცემების მიმართ. მას სჭირდება აქტივაციის ფუნქციების წარმოებულები ქსელის დიზაინის დროისთვის.

როგორ ასწორებთ უკან გამრავლებას?

უკან გავრცელების პროცესი ღრმა ნერვულ ქსელში

  1. შეყვანის მნიშვნელობები. X1=0.05. …
  2. საწყისი წონა. W1=0.15 w5=0.40. …
  3. მიკერძოებული ღირებულებები. b1=0.35 b2=0.60.
  4. სამიზნე მნიშვნელობები. T1=0.01. …
  5. წინა საშვი. H1-ის მნიშვნელობის საპოვნელად ჯერ ვამრავლებთ შეყვანის მნიშვნელობას წონებიდან როგორც. …
  6. უკან გადასასვლელი გამომავალი ფენაზე. …
  7. უკან გადასასვლელი დამალულ შრეზე.

ეფექტურია უკანა გავრცელება?

უკან გავრცელება ეფექტურია, რაც შესაძლებელს ხდის მრავალშრიანი ქსელების მომზადებას, რომლებიც შეიცავს ბევრ ნეირონს, ხოლო წონასწორობის განახლებას დანაკარგების შესამცირებლად.

რა პრობლემას წყვეტს უკანა გავრცელება ნერვულ ქსელებთან მუშაობისას?

ნერვული ქსელის მორგებისას, უკან გავრცელება ითვლის გრადიენტსდაკარგვის ფუნქცია ქსელის წონებთან მიმართებაში ერთი შემავალი-გამომავალი მაგალითისთვისდა ამას ეფექტურად აკეთებს, განსხვავებით გრადიენტის გულუბრყვილო პირდაპირი გამოთვლისგან თითოეული წონის მიმართ ცალკე.

გირჩევთ: