Insegnamento RETI NEURALI E ALGORITMI DI APPRENDIMENTO
Nome del corso | Ingegneria elettronica per l'internet-of-things |
---|---|
Codice insegnamento | A003199 |
Curriculum | Industrial iot |
Docente responsabile | Renzo Perfetti |
Docenti |
|
Ore |
|
CFU | 9 |
Regolamento | Coorte 2024 |
Erogato | Erogato nel 2024/25 |
Erogato altro regolamento | |
Attività | Affine/integrativa |
Ambito | Attività formative affini o integrative |
Settore | ING-IND/31 |
Tipo insegnamento | Opzionale (Optional) |
Tipo attività | Attività formativa monodisciplinare |
Lingua insegnamento | ITALIANO |
Contenuti | Introduzione alle reti neurali e agli algoritmi di apprendimento automatico per la classificazione e la regressione. |
Testi di riferimento | Duda, Hart , Stork, Pattern Classification, 2nd ed., Wiley C.M. Bishop, Pattern Recognition and Machine Learning, Springer James, Witten, Hastie, Tibshirani, An Introduction to Statistical Learning, Springer S. Haykin, Neural Networks, Prentice-Hall N. Cristianini, J. Shawe-Taylor, An Introduction to Support Vector Machines, Cambridge University Press |
Obiettivi formativi | Comprensione dei principali algoritmi di apprendimento automatico e delle problematiche relative alla loro applicazione e valutazione nel riconoscimento e nell'analisi dei dati |
Prerequisiti | Calcolo delle probabilità e variabili aleatorie. Algebra lineare. |
Metodi didattici | Lezioni frontali ed esercitazioni pratiche con Matlab |
Modalità di verifica dell'apprendimento | Esame orale |
Programma esteso | Richiami su forme quadratiche e variabili aleatorie. Introduzione all’apprendimento automatico. Regressione lineare semplice e multipla. Selezione delle variabili. Dati non ideali. Ridge e LASSO. MLE. Steepest descent. Classificazione Bayesiana. Classificazione parametrica e non parametrica (k-NN). Misture di Gaussiane. Logistic regression. Separazione lineare. Perceptron. Algoritmo LMS. Separazione lineare multiclasse. Prestazioni di un classificatore: overfitting, bias e varianza, curva ROC, matrice di confusione. Test e validazione di un classificatore. Reti neurali multistrato. Algoritmo error backpropagation. Tecniche di regolarizzazione. Cenni alle reti convoluzionali e ricorrenti. Support Vector Machines lineari e non lineari. Algoritmi di clustering (k-means, k-medoids, gerarchici, GMMs, DBSCAN). Silhouette. PCA. Uso delle funzioni di Matlab dei toolbox Statistics and Machine Learning e Deep Neural Networks. |