Szkolenie 2-dniowe

Optymalizacja modeli uczenia głębokiego
w procesie treningu i inferencji

Szkolenie obejmuje techniki usprawniania treningu i inferencji, takie jak kwantyzacja, pruning czy mixed-precision training.

Cele szkolenia

Zrozumienie znaczenia optymalizacji modeli głębokiego uczenia w różnych środowiskach pracy.

Opanowanie technik takich jak kwantyzacja, pruning i mixed-precision training.

Zapoznanie się z narzędziami ONNX, TensorRT i Triton do przyspieszania inferencji.

Wykorzystanie metod optymalizacji w dużych modelach językowych (LLMs) i modelach wizji komputerowej.

Dostosowanie modeli do wdrażania na urządzeniach brzegowych z ograniczoną mocą obliczeniową.

Dla kogo jest to szkolenie?

Szkolenie jest przeznaczone dla doświadczonych data scientistów i inżynierów uczenia maszynowego, którzy chcą zgłębić techniki optymalizacji modeli w celu zwiększenia ich efektywności. Skierowane jest również do osób pracujących z modelami głębokiego uczenia, które pragną poprawić ich wydajność i skrócić czas inferencji. Szczególnie przydatne będzie dla specjalistów zajmujących się wdrażaniem modeli w środowiskach o ograniczonych zasobach, takich jak urządzenia brzegowe, gdzie kluczowa jest redukcja zapotrzebowania na moc obliczeniową bez utraty jakości predykcji.

Wymagania

Dobra znajomość języka Python, a w szczególności umiejętność korzystania z zewnętrznych bibliotek.

Znajomość podstaw uczenia maszynowego i głębokiego.

Doświadczenie w pracy z Pythonem i bibliotekami do głębokiego uczenia (PyTorch, TensorFlow).

Wiedza na temat działania sieci neuronowych oraz procesów treningu modeli.

Dlaczego warto wziąć udział w szkoleniu?

Optymalizacja modeli w Pythonie

Szkolenie oferuje praktyczne podejście do optymalizacji modeli w Pythonie z użyciem narzędzi i frameworków, takich jak PyTorch, TensorFlow, ONNX, TensorRT i Triton.

Redukcja kosztów i wdrażanie na urządzeniach brzegowych

Uczestnicy szkolenia nauczą się optymalizować modele pod kątem redukcji kosztów, jak również wdrożeń na urządzeniach brzegowych.

Optymalizacja dużych modeli językowych

Specjalny moduł poświęcony jest optymalizacji szeroko stosowanych dużych modeli językowych (LLMs) oraz modeli wizji komputerowej.

Program szkolenia

1. Wprowadzenie do optymalizacji modeli

2. Optymalizacja potoków danych

3. Techniki optymalizacji procesu treningowego

4. Technologie optymalizujące inferencję modeli

5. Kompresja modeli po procesie treningowym

6. Optymalizacja dużych modeli językowych (LLMs)

7. Optymalizacja modeli wizji komputerowej

8. Optymalizacja modeli dla urządzeń brzegowych (edge devices)