"Maskinlæring" - kursus 30.000 rubler. fra MSU, træning 3 uger. (1 måned), Dato: 2. december 2023.
Miscellanea / / December 06, 2023
Formålet med programmet – introducere eleverne til det grundlæggende i maskinlæring.
Uddannelsens varighed – 72 timer (30 timers klasseundervisning med en lærer, 42 timers uafhængig studie af materialer).
Studieform – fuld tid, deltid, aften.
Klasseformat - på fuld tid, for deltagere fra andre byer, hvis det er umuligt at deltage personligt, vil du kunne oprette forbindelse til lektionen via videokonference.
Udgifter til uddannelse - 30.000 rubler.
Start af undervisning - efteråret 2023.
Der indgås uddannelsesaftaler med enkeltpersoner og juridiske enheder.
Tilmelding til kurser udføres via e-mail [email protected] ved hjælp af registreringsformularen på hjemmesiden.
Du kan kontakte kursusadministratoren, Anton Martyanov, for at tilmelde dig eller med spørgsmål via WhatsApp eller Telegram: +79264827721.
Doctor of Technical Sciences Stilling: Professor ved Higher School of Management and Innovation ved M.V. Lomonosov Moscow State University
Afsnit 1. Introduktion. Eksempler på opgaver. Logiske metoder: beslutningstræer og beslutningsskove.
Logiske metoder: klassificering af objekter baseret på simple regler. Fortolkning og implementering. Kombination til en komposition. Afgørende træer. Tilfældig skov.
Afsnit 2. Metriske klassifikationsmetoder. Lineære metoder, stokastisk gradient.
Metriske metoder. Klassificering baseret på lighed. Afstand mellem objekter. Metrics. K-nærmeste naboers metode. Generalisering til regressionsproblemer ved hjælp af kerneudglatning. Lineære modeller. Skalerbarhed. Anvendelighed til big data Stokastisk gradientmetode. Anvendelighed til tuning af lineære klassifikatorer. Begrebet regularisering. Funktioner ved at arbejde med lineære metoder. Klassificeringskvalitetsmålinger.
Afsnit 3. Support Vector Machine (SVM). Logistisk regression. Klassificeringskvalitetsmålinger.
Lineære modeller. Skalerbarhed. Anvendelighed til big data Stokastisk gradientmetode. Anvendelighed til tuning af lineære klassifikatorer. Begrebet regularisering. Funktioner ved at arbejde med lineære metoder.
Afsnit 4. Lineær regression. Dimensionalitetsreduktion, hovedkomponentmetode.
Lineære modeller for regression. Deres forbindelse med den enestående nedbrydning af "objekt-træk"-matricen. Reduktion af antallet af skilte. Tilgange til valg af funktioner. Hovedkomponentmetode. Metoder til reduktion af dimensionalitet.
Afsnit 5. Sammensætninger af algoritmer, gradientboosting. Neurale netværk.
Kombinere modeller til en sammensætning. Gensidig korrektion af modelfejl. Grundlæggende begreber og problemformuleringer relateret til kompositioner. Gradientboosting.
Neurale netværk. Søg efter ikke-lineære skilleflader. Flerlags neurale netværk og deres tuning ved hjælp af tilbagepropageringsmetoden. Dybe neurale netværk: deres arkitekturer og funktioner.
Afsnit 6. Clustering og visualisering.
Problemer med uovervåget læring. At finde struktur i data. Klyngeproblemet er opgaven med at finde grupper af lignende objekter. Visualiseringsopgaven er opgaven med at kortlægge objekter i to- eller tredimensionelle rum.
Afsnit 7. Anvendte dataanalyseproblemer: formuleringer og løsningsmetoder.
Delvis læring som et problem mellem superviseret læring og klyngedannelse. Et prøveudtagningsproblem, hvor værdien af målvariablen kun er kendt for nogle objekter. Forskellen mellem det delvise læringsproblem og de tidligere omtalte formuleringer. Tilgange til løsning.
Analyse af problemer fra anvendte områder: scoring i banker, forsikring, tegningsproblemer, problemer med mønstergenkendelse.
Adresse
119991, Moskva, st. Leninskie Gory, 1, bygn. 51, 5. sal, værelse 544 (dekans kontor)
Universitet