For the previous IESTI01 course version, please visit: UNIFEI-IESTI01-TinyML-2021.1
For the current IESTI01 course version, please go to: UNIFEI-IESTI01-TinyML
- Pre-course: : [Suggested readings]
- Pre-course: : [Jupyter Notebook, CoLab and Python Review]
- Class 1 - About the Course and Syllabus [Slides] [Video]
- Class 2 - Introduction to TinyML [Slides] [Video]
- Class 3 - TinyML - Challenges [Slides] [Video]
- Class 4 - Jupyter Notebook, CoLab and Python Review [Notebooks] [Docs] [Video]
- Class 5 - The Machine Learning Paradigm [Slides] [Notebooks] [Docs] [Video]
- Class 6 - The Building Blocks of Deep Learning (DL) - Introduction [Slides] [Notebooks] [Docs] [Video]
- Class 7 - The Building Blocks of DL - Regression with DSS [Slides] [Notebooks] [Docs] [Video]
- Class 8 - The Building Blocks of DL - Classification with DSS [Slides] [Notebooks] [Docs] [Video]
- Class 9 - The Building Blocks of DL - DNN Recap, Datasets and Model Performance Metrics [Slides] [Notebooks] [Docs] [Video]
- Class 10 - Introducing Convolutions (CNN) [Slides] [Notebooks] [Docs] [Video]
- Class 11 - Image Classification using CNN [Slides] [Notebooks] [Docs] [Video]
- Class 12 - Introduction to Edge Impulse – CNN with Cifar-10 [Slides] [Notebooks] [Video]
- Class 13 - Preventing Overfitting [Slides] [Notebooks] [Docs] [Video]
- Class 14 - Fundamentals wrap-up and Application’s preview [Slides] [Docs] [Video]
- Class 15 - ML Applications Overview - AI Lifecycle and ML Workflow [Slides] [Video]
- Class 16 - Introduction to TFLite and TFLite-Micro [Slides] [Notebooks] [Docs] [Video]
- Class 17 - TinyML Kit Overview - HW and SW Installation & Test [Slides] [Notebooks] [Docs] [Video]
- Class 18 - TFLite-Micro Overview & Hello World Code Walkthrough [Slides] [Code] [Docs] [Video]
- Class 19 - Motion Classification - Introdution [Slides] [Video]
- Class 20 - Motion Classification using MCU [Slides] [Code] [Video]
- Class 21 - Lecturer with Dr. Marco Zennaro, ICTP, Italy [Slides] [Video]
- Class 22 - Anomaly Detection using MCU [Slides] [Code] [Docs] [Video]
- Class 23 - Keyword Spotting - Introduction [Slides] [Code] [Docs] [Video]
- Class 24 - Lab KWS using MCU [Slides] [Code] [Video]
- Class 25 - Collecting Data with Edge Impulse Studio [Slides] [Code] [Video]
- Class 26 - Visual Wake Words (VWW) - Introduction [Slides] [Code] [Docs] [Video]
- Class 27 - Image Classification using Edge Impulse Studio [Slides] [Code] [Video]
- Class 28 - Responsible AI & Course Wrap-up [Slides] [Docs] [Video]
- Class 29 and 30 - Group Presentations
Como sabemos, os microcontroladores (ou MCUs) são componentes eletrônicos muito baratos, geralmente com apenas alguns kilobytes de RAM e projetados para consumir pequenas quantidades de energia. Hoje em dia, os MCUs podem ser encontrados incorporados em quase todos os dispositivos residenciais, médicos, automotivos e industriais. Estima-se que mais de 40 bilhões de microcontroladores serão vendidos este ano e provavelmente centenas de bilhões deles esteja em serviço atualmente. Mas, curiosamente, esses dispositivos não recebem muita atenção porque muitas vezes são usados apenas para substituir funcionalidades que os sistemas eletromecânicos mais antigos faziam em carros, máquinas de lavar ou controles remotos.
Mais recentemente, com a era da IoT (Internet das Coisas), uma parte significativa desses MCUs está gerando “quintilhões” de dados, que em sua maioria, não são utilizados devido ao alto custo e complexidade de sua transmissão de dados (largura de banda e latência).
Por outro lado, nas últimas décadas, assistimos ao desenvolvimento de modelos de Aprendizado de Máquina (também conhecido como Inteligência Artificial) treinados com "toneladas" de dados e em poderosos mainframes. Mas o que está acontecendo hoje é que, de repente, tornou-se possível, à partir de sinais "ruidosos" e complexos como imagens, áudio ou acelerômetros e extrair significado deles através do uso de redes neurais. E o que é mais importante, é que podemos executar esses modelos de redes neurais em microcontroladores e sensores usando muito pouca energia e assim, interpretando muito mais dos dados de sensores que estamos atualmente ignorando. Este é o TinyML, uma nova área que permite extrair "inteligência de máquina" bem no mundo físico (onde os dados são gerados).
TinyML é um curso introdutório na interseção entre o Aprendizado de Máquina (Machine Learning) e dispositivos embarcados (Embedded Devices). A difusão de dispositivos embarcados com ultra-baixo consumo de energia (da ordem de miliwatts), juntamente com a introdução de frameworks de aprendizado de máquina dedicados a dispositivos embarcados, como TensorFlow Lite para Microcontroladores (TF Lite Micro), permitirão a proliferação em massa de dispositivos IoT potencializados por IA (“AioT”).
O crescimento explosivo do aprendizado de máquina e a facilidade de uso de plataformas como TensorFlow (TF) o tornam um tópico de estudo indispensável para estudantes de Engenharia Eletrônica, da Computação e Controle & Automação.
O TinyML difere do aprendizado de máquina convencional (por exemplo, servidor - nuvem) porque requer não apenas conhecimentos em software, mas também conhecimentos em hardware integrado. Este curso procura fornecer uma base para o entendimento deste campo emergente.
A atual versão deste curso, pioneiro na América Latina, tem como principais referências:
- Harvard School of Engineering and Applied Sciences - CS249r: Tiny Machine Learning
- Professional Certificate in Tiny Machine Learning (TinyML) – edX/Harvard
- Introduction to Embedded Machine Learning (Coursera)
- Text Book: "TinyML" by Pete Warden, Daniel Situnayake
IESTI01 faz parte do TinyML4D, uma iniciativa para tornar a ensino do TinyML disponível para todos em todo o mundo.
- Fundamentos de IoT
- Fundamentos de aprendizado de máquina (ML)
- Fundamentos de Deep Learning (DL)
- Como coletar dados para ML
- Como treinar e implantar modelos de ML
- Noções básicas sobre ML embarcado
- O código por trás de alguns dos aplicativos mais amplamente utilizados no TinyML
- Casos reais de aplicação do TinyML na indústria
- Princípios de reconhecimento automático de fala (KeyWord Spotting como Alexa, Hey Google, Siri, etc.)
- Princípios do reconhecimento automático de imagens (Visual Wake Words)
- Conceito de detecção de anomalias e modelos de ML aplicáveis
- Princípios de Engenharia de Dados aplicado ao TinyML
- Visão geral do hardware de dispositivos baseados em microcontroladores
- Visão geral do software por trás de dispositivos baseados em microcontroladores
- Projetos reais utilizando plataformas de mercado
- Design, desenvolvimento e Implantação de uma IA responsável
- 30hs (Classes de 2hs, durante 15 semanas)
- 15hs de tarefas/labs
- 15hs em pesquisas e estudos individuais + trabalho final (em grupo)
- Participação individual em classe (Quiz semanal): 20%
- Code Assignments (ML/DL) (Jupyter Notebook / CoLab): 25%
- Projetos práticos (Relatórios de Laboratórios): 25%
- Projeto Final em Grupo(com apresentação): 30%
- Conhecimentos do idioma inglês (leitura).
- Conhecimentos básicos de programação em C / C ++ (Arduino IDE) e Python. Todas as tarefas de classe envolverão uma ou ambas linguagens de programação.
- Familiaridade com ferramentas de linha de comando em Mac, Windows ou Linux. Os projetos exigirão algumas operações em um terminal.
- Noções de Algebra linear, análise de sinais, probabilidade básica e estatística. Muitos tópicos de ML giram em torno de compreender operações e notação de vetores e matrizes, bem como conceitos de distribuições gaussianas, médias, desvios-padrão etc.
- As aulas serão ministradas de maneira remota e ao vivo (aulas síncronas) pela plataforma Google Meet, todas as quartas-feiras das 13:30h às 15:30h. As gravações das aulas estarão disponíveis aos alunos para revisão.
- Exercícios e projetos poderão ser desenvolvidos em computadores pessoais com TensorFlow V.2x instalados ou utilizando-se de ferramentas on-line como Google CoLab.
- Modelos reais de TinyML serão desenvolvidos e treinados utilizando-se do Edge Impulse Studio.
- Para a captura inicial de dados, deployment dos modelos treinados e familiarização das ferramentas de mercado, serão utilizados inicialmante smart-phones pessoais dotados de pelo menos sensores do tipo: acelerômetro, microfone e camera.
- Na segunda parte do curso será utilizado um Kit composto de um Arduino BLE Sense (Cortex-M4) e uma camera digital modelo OV7675 (disponibilizado pela universidade e enviado diretamente a residencia dos alunos).