Kod przedmiotu |
02 58 6115 00 |
Liczba punktów ECTS |
3 |
Nazwa przedmiotu w języku prowadzenia |
Głębokie sieci neuronowe 1 |
Nazwa przedmiotu w języku polskim |
Głębokie sieci neuronowe 1 |
Nazwa przedmiotu w języku angielskim |
Deep Neural Networks I |
Język prowadzenia zajęć |
polski |
Poziom studiów |
studia drugiego stopnia |
Kierownik przedmiotu |
prof. dr hab. inż. Krzysztof Ślot |
Realizatorzy przedmiotu |
dr inż. Paweł Kapusta, prof. dr hab. inż. Krzysztof Ślot |
Formy zajęć i liczba godzin w semestrze |
|
Wykład |
Ćwiczenia |
Laboratorium |
Projekt |
Seminarium |
Inne |
Suma godzin w semestrze |
Godziny kontaktowe |
15 |
|
15 |
|
|
0 |
30 |
Czy e-learning |
Nie |
Nie |
Nie |
Nie |
Nie |
Nie |
|
Kryteria oceny (waga) |
0,50 |
|
0,50 |
|
|
0,00 |
|
|
Cel przedmiotu |
- Prezentacja podstaw koncepcji: sieci neuronowych i głębokich sieci neuronowych
- Prezentacja metodyki uczenia sieci
|
Efekty kształcenia |
- Znajomość sposobu przetwarzania danych w sieciach neuronowych i mechanizmu uczenia sieci
- Znajomość celów, istoty i elementów uczenia głębokiego
- Znajomość koncepcji konwolucyjnych sieci neuronowych
- Umiejętność opracowania i implementacji sieci realizującej wybrane zadania rozpoznawania obiektów obrazu
|
Metody weryfikacji efektów kształcenia |
Ocena zrozumienia przedstawianych koncepcji: neuronu, sieci neuronoej, sieci konwolucyjnej oraz uczenia; ocena umiejętności realizacji algorytmu rozpoznawania obiektów obrazu.
|
Wymagania wstępne |
Podstawowa umiejętność programowania w języku Python, znajomość podstawowych metod optymalizacji i algebry liniowej |
Treści kształcenia z podziałem na formy |
WYKŁAD
Sztuczny neuron: struktura, sposób działania i funkcje aktywacji. Interpretacja funkcji neuronu. Uczenie neuronu - reguła delta.
Sieci neuronowe jednokierunkowe. Funkcja kosztu i algorytm wstecznej propagacji błędu. Klasyfikacja danych z wykorzystaniem sieci jednokierunkowych. Regresja.
Głębokie sieci neuronowe (DNN) i metody eliminacji ograniczeń klasycznych struktur wielowarstwowych: stabilizacja gradientów (ReLU) i metody SGD, przeciwdziałanie przeuczeniu (regularyzacja i dropout), przyśpieszanie zbieżności (Adam) i wstępna inicjalizacja wag (Xavier), probabilistyczna ocena jakości analizy (dywergencja KL) i metoda wyboru zwycięskiej hipotezy (softmax).
Konwolucyjne sieci neuronowe (CNN): architektura, sposób działania i przykłady zastosowań.
LABORATORIUM
Zapoznanie ze środowiskiem programowym do symulacji sieci głębokich. Implementacja systemu rozpoznawania obiektów obrazów (np. rozpoznawanie cyfr, detekcja przechodniów) przy użyciu DNN.
|
Literatura podstawowa |
- Buduma N.: Fundamentals of Deep Learning, O?Reilly, 2017
- Materiały pomocniecze on-line
|
Literatura uzupełniająca |
- Ian Goodfellow and Yoshua Bengio and Aaron Courville: Deep Learning http://www.deeplearningbook.org/
|
Przeciętne obciążenie godzinowe studenta pracą własną |
6 |
Uwagi |
|
Aktualizacja |
2020-10-05 23:33:17 |