le Programme de master de recherche en génie informatique

(INF 537)

Nom du Cours Semestre du Cours Cours Théoriques Travaux Dirigés (TD) Travaux Pratiques (TP) Crédit du Cours ECTS
INF 537 2 3 0 0 3 6
Cours Pré-Requis
Conditions d'Admission au Cours
Langue du Cours Anglais
Type de Cours Électif
Niveau du Cours Master
Enseignant(s) du Cours Uzay ÇETİN ucetin@gsu.edu.tr (Email)
Assistant(e)s du Cours
Objectif du Cours -Ce cours vise à examiner les fondements mathématiques, les architectures modernes et les approches d'ingénierie au niveau recherche des systèmes d'intelligence artificielle générative. Les étudiants acquièrent une compréhension approfondie de la manière dont les grands modèles de langage (LLM), les systèmes de génération d'images basés sur la diffusion, ainsi que les architectures de récupération et d'agents sont conçus, entraînés, optimisés et évalués.
Contenus (Ci-dessous) Cela peut être consulté dans la section des intitulés de sujets.
Acquis d'Apprentissage du Cours À l'issue de ce cours, les étudiants seront capables de :

- Expliquer les fondements mathématiques des systèmes d'intelligence artificielle générative,
- Décrire les architectures des grands modèles de langage (LLM), des systèmes de génération d'images basés sur la diffusion et des architectures de retrieval/agent,
- Concevoir et mettre en œuvre des modèles d'IA générative à un niveau de recherche,
- Analyser et comparer différentes approches architecturales dans la recherche en IA générative.
Méthodes d'Enseignement Les cours se dérouleront en présentiel. Dans le cadre du cours, les étudiants réaliseront un projet et en feront la présentation.
Ressources Build a Large Language Model (From Scratch), Sebastian Raschka, September 2024
Imprimer le contenu du cours
Intitulés des Sujets Théoriques
Semaine Intitulés des Sujets
1 Apprentissage Profond I
2 Apprentissage Profond II
3 Modèles de Langage Probabilistes (Word2Vec, RNN, etc.)
4 Les Mathématiques de l'Attention
5 Analyse Approfondie du Transformer
6 Entraînement des Grands Modèles de Langage
7 Examen Patiel
8 Attention Efficiente et le Problème du Long Contexte
9 Instruction Tuning, RLHF et Alignement
10 Modèles d'Embedding et Espace Sémantique
11 Génération Augmentée par Récupération (RAG) — Niveau Recherche
12 Systèmes LLM Agentiques
13 Graphes de Connaissances
14 Présentations de Projets
Intitulés des Sujets Pratiques
Semaine Intitulés des Sujets
Contribution à la Note Finale
  Numéro Frais de Scolarité
Contribution du contrôle continu à la note finale 0 0
Contribution de l'examen final à la note finale 0 0
Toplam 0 0
Contrôle Continu
  Numéro Frais de Scolarité
Devoir 0 0
Présentation 0 0
Examen partiel (temps de préparation inclu) 1 30
Projet 1 30
Travail de laboratoire 0 0
Autres travaux pratiques 0 0
Quiz 0 0
Devoir/projet de session 0 0
Portefeuille 0 0
Rapport 0 0
Journal d'apprentissage 0 0
Mémoire/projet de fin d'études 0 0
Séminaire 0 0
Autre 0 0
Make-up 0 0
Toplam 2 60
No Objectifs Pédagogiques du Programme Contribiton
1 2 3 4 5
1 X
2 X
3 X
4 X
5 X
6 X
7 X
8 X
9 X
10 X
11 X
12 X
13 X
Activités Nombre Durée Charge totale de Travail
Durée du cours 14 3 42
Préparation pour le cours 13 1 13
Devoir 0 0 0
Présentation 1 10 10
Examen partiel (temps de préparation inclu) 1 15 15
Projet 1 30 30
Laboratoire 0 0 0
Autres travaux pratiques 0 0 0
Examen final (temps de préparation inclu) 1 15 15
Quiz 0 0 0
Devoir/projet de session 0 0 0
Portefeuille 0 0 0
Rapport 0 0 0
Journal d'apprentissage 0 0 0
Mémoire/projet de fin d'études 0 0 0
Séminaire 0 0 0
Autre 0 0 0
baclé 0 0 0
Yil 0 0 0
Yil 0 0 0
Yil 0 0 0
Charge totale de Travail 125
Charge totale de Travail / 25 5.00
Crédits ECTS 5
Scroll to Top