Skip to content

Commit

Permalink
Merge pull request #17 from isaqb-org/Anpassungen-aus-Kommentaren-bis…
Browse files Browse the repository at this point in the history
…-27.10.2024

Anpassungen aus kommentaren bis 27.10.2024
  • Loading branch information
programming-wolf authored Nov 12, 2024
2 parents 0f6f411 + 8fa8c12 commit 48f9669
Show file tree
Hide file tree
Showing 9 changed files with 472 additions and 161 deletions.
4 changes: 1 addition & 3 deletions docs/00b-basics/01-what-to-expect-of-this-module.adoc
Original file line number Diff line number Diff line change
Expand Up @@ -6,9 +6,7 @@ für KI-Systeme als Mittel, um leistungsfähige, skalierbare und integrierbare K
Lösungen zu gestalten. Am Ende des Moduls kennen die Teilnehmer:innen die
wesentlichen Prinzipien der Softwarearchitektur für KI-Systeme und können diese
bei Entwurf und Implementierung von Machine Learning und Generative KI-
Systemen anwenden. Sie sind mithilfe der vermittelten kommunikativen Fähigkeiten
in der Lage, eine einheitliche Sprache zwischen Data Scientists, KI-Expert:innen und
Softwareentwickler:innen zu etablieren. Mit Hilfe der vermittelten
Systemen anwenden. Mit Hilfe der vermittelten
Modellierungstechniken und Architekturwerkzeuge können sie KI-Komponenten
nahtlos in bestehende Softwaresysteme integrieren. Die Schulung umfasst sowohl
Machine Learning Systeme als auch Generative KI und vermittelt, wie diese mit
Expand Down
18 changes: 10 additions & 8 deletions docs/00b-basics/04-prerequisites-for-this-training.adoc
Original file line number Diff line number Diff line change
Expand Up @@ -3,14 +3,16 @@

Teilnehmer:innen **sollten** folgende Kenntnisse und/oder Erfahrung mitbringen:

* Grundlegendes Wissen zu KI, Machine Learning und Data Science
* Machine Learning Methoden wie Supervised, Unsupervised Learning und Reinforcement Learning, z.B Klassifikation, Clustering, Regression, Dimensionality Reduction
* Grundsätzliches Wissen über die typischen Algorithmen wie: Linear/logistic regression, decision trees, random forests, support vector machines, K-means clustering, neural networks and deep learning
* Wissen über Model evaluation: Cross-validation, Metrics (accuracy, precision, recall, F1-score), Bias-variance tradeoff
* Erfahrung mit typischen Frameworks wie sk-learn, TensorFlow, PyTorch
* Erfahrung mit Jupyter Notebooks oder ähnlichen Rapid Application Development (RAD) Werkzeugen
* Wissen über die technischen Verfahren hinter KI, einschließlich: Maschinelles Lernen inkl. Deep Learning und LLMs, NLP-Ansätze (Natural Language Processing), Transformationsmodelle
* Praktische Erfahrung mit Trainieren von Künstlichen Intelligenz Modellen

* Ein grundlegendes Verständnis von Künstlicher Intelligenz, Machine Learning und Data Science
* Vertrautheit mit Machine Learning-Methoden, wie Supervised Learning, Unsupervised Learning und Reinforcement Learning, einschließlich Klassifikation, Clustering, Regression und Dimensionality Reduction
* Grundkenntnisse über gängige Algorithmen, wie z. B. lineare und logistische Regression, Entscheidungsbäume, Random Forests, Support Vector Machines, K-Means Clustering sowie neuronale Netze und Deep Learning
* Ein Verständnis der Modellevaluation, einschließlich Cross-Validation, relevanter Metriken (Accuracy, Precision, Recall, F1-Score) und des Bias-Variance Tradeoffs
* Erfahrung mit typischen Frameworks wie scikit-learn, TensorFlow und PyTorch
* Vertrautheit mit Jupyter Notebooks oder ähnlichen Werkzeugen zur schnellen Anwendungsentwicklung (Rapid Application Development, RAD)
* Ein grundlegendes Verständnis der technischen Verfahren hinter Künstlicher Intelligenz, einschließlich Maschinellen Lernens (insbesondere Deep Learning und LLMs) sowie Ansätzen im Bereich Natural Language Processing (NLP) und Transformationsmodellen
* Praktische Erfahrung im Training von Künstlichen Intelligenz-Modellen


// end::DE[]

Expand Down
73 changes: 54 additions & 19 deletions docs/01-module-block-1/02-learning-goals.adoc
Original file line number Diff line number Diff line change
@@ -1,25 +1,40 @@
=== {learning-goals}

// tag::DE[]
Die Teilnehmer:Innen …

[[LZ-1-1]]
==== LZ 1-1: Wissen wie man Künstliche Intelligenz definiert und die Anordnung zu Machine Learning, Data Science, Deep Learning, Generative AI.
==== LZ 1-1: Künstliche Intelligenz und Machine Learning, Data Science, Deep Learning, Generative AI einordnen können

Die Teilnehmer:innen wissen, wie man Künstliche Intelligenz definiert und wie Machine Learning, Data Science, Deep Learning, Generative AI darin eingeordnet werden.

[[LZ-1-2]]
==== LZ 1-2: Wissen, wie man typische allgemeine Use-Cases für KI spezifiziert, z.B. Bilderkennung & -erzeugung, Sprachverarbeitung, Vorhersagen, Personalisierung und Anomalieerkennung.
==== LZ 1-2: Typische allgemeine Anwendungsfälle für KI spezifizieren

Die Teilnehmer:innen wissen, wie typische allgemeine Anwendungsfälle für KI spezifiziert werden können. Dies umfasst Anwundungsfälle für z.B. Bilderkennung & -erzeugung, Sprachverarbeitung, Vorhersagen, Personalisierung und Anomalieerkennung.

[[LZ-1-3]]
==== LZ 1-3: Kennen Einsatzmöglichkeiten in verschiedenen Branchen, z.B. Marketing, Medizin, Robotik und Content-Creation.
==== LZ 1-3: Einsatzmöglichkeiten in verschiedenen Branchen und Endnutzeranwendungen kennen

Die Teilnehmer:innen kennen die möglichen Einsatzmöglichkeiten in verschiedenen Branchen, z.B. Marketing, Medizin, Robotik und Content-Creation. Darüber hinaus überblicken sie die Einsatzmöglichkeiten in Endnutzeranwendungen von KI. Darunter fallen z.B. Sprachassistenten (Chatbots) und Empfehlungssysteme (Recommender Engine).


[[LZ-1-4]]
==== LZ 1-4: Kennen Einsatzmöglichkeiten in Endnutzeranwendungen, z.B. bSprachassistenten (Chatbots) und Empfehlungssysteme (Recommender Engine).
==== LZ 1-4: Risiken bei der Anwendung von KI identifizieren

Die Teilnehmer:innen können Risiken, die bei der Anwendung von KI auftreten, identifizieren. Das können beispielsweise folgende Risiken sein:

* Halluzinationen
* Bias
* (un-)Fairness
* gesellschaftlichen Risiken wie Deepfakes, AI-enabled Cyberattacs, Safety Risks in Critical Systems, Social Manipulation, Intellectual Property Issues usw.



[[LZ-1-5]]
==== LZ 1-5: Wissen, wie man Risiken bei der Anwendung von KI (Halluzinationen, Bias, Fairness…) und gesellschaftlichen Risiken (Deepfakes, AI-enabled Cyberattacs, Safety Risks in Critical Systems, Social Manipulation, Intellectual Property Issues, etc.) identifiziert.
==== LZ 1-5: Unterschiede zu traditioneller Software verstehen

Die Teilnehmer:innen verstehen die Unterschiede von KI-Systemen zu tradiitoneller Software:

[[LZ-1-6]]
==== LZ 1-6: Kennen den Unterschied zu traditioneller Software:
* Datengetrieben (bei ML) - Daten-zentrierte statt Code-zentrierte Entwicklung
* Probabilistische Ergebnisse (Non-deterministic behavior)
* Statistische Validierung
Expand All @@ -30,26 +45,46 @@ Die Teilnehmer:Innen …
* AI-spezifische Regulatorik von Branchen und auf EU-Ebene müssen berücksichtigt werden.
* Interoperabilität: Nahtlose Integration in bestehende Systeme und Technologiestacks.

[[LZ-1-6]]
==== LZ 1-6: Lösung von Problemen mittels KI oder klassischer SW-Entwicklung entscheiden können

Teilnehmer:innen können entscheiden und erklären, ob und warum ein Problem mittels KI oder klassischer SW-Entwicklung zu lösen ist.

[[LZ-1-7]]
==== LZ 1-7: Können beurteilen, ob ein Problem mittels KI oder klassischer SW-Entwicklung zu lösen ist.
==== LZ 1-7: Rollen und deren Aufgaben sowie ihre Zusammenarbeit im Kontext von KI kennen

Die Teilnehmer:innen kennen typische Rollen und deren Aufgaben in diesen Kontexten. Die Rollen umfassen insbesondere:

* Data Scientist
* Data Analyst
* Data Engineer
* Machine Learning Engineer
* MLOps Engineer
* AI Architect
* Data Architect
* Business Intelligence (BI) Developer
* Data Governance Specialist
* ML-Researcher

Die Teilnehmer:innen wissen darüber hinaus, wie diese Rollen im Team zusammenarbeiten könnten (Team Topologies für ML-Teams).



[[LZ-1-8]]
==== LZ 1-8: Kennen typische Rollen und deren Aufgaben in diesen Kontexten: Data Scientist, Data Analyst, Data Engineer, Machine Learning Engineer, MLOps Engineer, AI Architect, Data Architect, Business Intelligence (BI) Developer, Data Governance Specialist, ML-Researcher.
==== LZ 1-8: KI Anwendungsfällen identifizieren und priorisieren können

Die Teilnehmer:innen können KI Anwendungsfälle identifizieren und priorisieren.

[[LZ-1-9]]
==== LZ 1-9: Wissen, wie diese Rollen im Team zusammenarbeiten könnten (Team Topologies für ML-Teams).
==== LZ 1-9: KI Stärken und Grenzen kennen

[[LZ-1-10]]
==== LZ 1-10: Wissen, wie man KI Use Cases identifiziert und priorisiert.
Die Teilnehmer:innen verstehen die Stärken und die Grenzen von KI und kennen die sog. "Jagged Technological Frontier".

[[LZ-1-11]]
==== LZ 1-11: Kennen KI Stärken und Grenzen (Jagged Technological Frontier).
[[LZ-1-10]]
==== LZ 1-10: Productivity J-Curve Konzept in Verbindung mit KI-Technologie kennen

[[LZ-1-12]]
==== LZ 1-12: Wissen wie man Künstliche Intelligenz definiert und die Anordnung zu Machine Learning, Data Science, Deep Learning, Generative AI.
Dieses Phänomen hilft zu verstehen, warum Unternehmen bei der Implementierung von KI zunächst einen Produktivitätsrückgang verzeichnen können, dem bei der weiteren Entwicklung aber Produktivitätsgewinne folgen können.

[[LZ-1-13]]
==== LZ 1-13: Kennen Productivity J-Curve Konzept in Verbindung mit KI-Technologie (Dieses Phänomen hilft zu verstehen, warum Unternehmen bei der Implementierung von KI zunächst einen Produktivitätsrückgang verzeichnen können, dem bei der weiteren Entwicklung aber Produktivitätsgewinne folgen können.).

// end::DE[]

Expand Down
121 changes: 87 additions & 34 deletions docs/02-module-block-2/02-learning-goals.adoc
Original file line number Diff line number Diff line change
Expand Up @@ -2,16 +2,18 @@

// tag::DE[]

Die Teilnehmer:Innen …

[[LZ-2-1]]
==== LZ 2-1: Wissen, wie Datenschutzgesetze, wie die DSGVO, die Sammlung, Verarbeitung und Speicherung von Daten durch KI-Systeme beeinflussen.
==== LZ 2-1: Einfluss der Datenschutzgesetze auf die Implementierung und Nutzung von KI kennen

Die Teilnehmer:innen kennen die Datenschutzgesetze wie die DSGVO und wissen, wie diese die Sammlung, Verarbeitung und Speicherung von Daten durch KI-Systeme beeinflussen.

[[LZ-2-2]]
==== LZ 2-2: Verstehen die Ziele und Regelungen des EU AI Act und dessen Einfluss auf die Entwicklung und den Einsatz von KI-Systemen.
==== LZ 2-2: Ziele und Regelungen des EU AI Act sowie deren Einfluss auf den Entwicklungsprozess und die Architektur verstehen

Die Teilnehmer:innen verstehen die Ziele und Regelungen des EU AI Act und wissen welchen Einfluss dies auf die Entwicklung und den Einsatz von KI-Systemen hat. Außerdem verstehen sie die Anforderungen des EU AI Act (Trustworthy AI) und welchen Einfluss diese Anforderungen auf den Entwicklungsprozess und die Architektur
des Softwaresystems haben. Insbesondere kennen sie den Einfluss auf einige der folgenden Aspekte:

[[LZ-2-3]]
==== LZ 2-3: Verstehen die Anforderungen für EU AI Act (Trustworthy AI) und welchen Einfluss diese Anforderungen auf die Architektur des Softwaresystems hat:
* Risikomanagementsystem (Risikominimierung)
* Datenqualität und Datengovernance (Qualitätsmanagementsystem)
* Erstellung und Pflege einer umfassenden technischen Dokumentation des KI-Systems
Expand All @@ -21,65 +23,116 @@ Die Teilnehmer:Innen …
* Gewährleistung eines angemessenen Maßes an Genauigkeit/Accuracy und Robustheit
* Implementierung von Maßnahmen zur Cybersicherheit


[[LZ-2-3]]
==== LZ 2-3: Klassikifaktion von KI-Systemen nach EU AI Act Risikolevel durchführen können

Die Teilnehmer:innen kennen die Klassifikation von KI-Systemen nach den EU AI Act Risikolevel (verboten, hochrisikoreich, begrenzt risikoreich, niedrigrisikoreich) und wissen,
welche regulatorischen Anforderungen jeweils gelten.


[[LZ-2-4]]
==== LZ 2-4: Wissen, wie KI-Systeme nach EU AI Act Risikolevel (verboten, hochrisikoreich, begrenzt risikoreich, niedrigrisikoreich) klassifiziert werden und welche regulatorischen Anforderungen jeweils gelten.
==== LZ 2-4: Urheberrechtsproblematik von KI-generierten Inhalten einordnen können

Die Teilnehmer:innen verstehen die Urheberrechtsproblematik für KI-generierte Inhalte und kennen die Auswirkungen auf bestimmte Software-Lizenzmodelle sowie mögliche Umgänge damit.

[[LZ-2-5]]
==== LZ 2-5: Wissen um die Urheberrechtsproblematik für KI-generierte Inhalte und die Auswirkungen auf bestimmte Software-Lizenzmodelle sowie mögliche Umgänge damit.
==== LZ 2-5: Arten bzw. Grade der Offenheit sowie Arten von Lizenzen freier ML-Modelle überblicken

Die Teilnehmer:innen überblicken verschiedene Arten bzw. Grade der Offenheit freier ML-Modelle. Das betrifft beispielsweise die Offenlegung der Daten
und der Modellparameter. Darüber hinaus kennen sie verschiedene Arten von Lizenzen freier ML-Modelle sowie deren Auswirkungen auf das KI-System.



[[LZ-2-6]]
==== LZ 2-6: Kennen verschiedene Arten bzw. Grade der Offenheit freier ML-Modelle, z.B. was die Offenlegung der Daten und der Modellparameter anbelangt.
==== LZ 2-6: Strategien für die Einhaltung des europäischen AI-Acts und mögliche Herausforderungen verstehen

Die Teilnehmer:innen verstehen die Grundaussagen des europäischen AI-Acts (insbesondere Transparenzpflichten) und kennen Strategien
für deren Einhaltung sowie mögliche Herausforderungen dabei.

[[LZ-2-7]]
==== LZ 2-7: Kennen verschiedene Arten von Lizenzen freier ML-Modelle sowie deren Auswirkungen.
==== LZ 2-7: Modelle und Datensätze für die Nachvollziehbarkeit und Transparenz dokumentieren

Die Teilnehmer:innen wissen, wie man Modelle und Datensätze effektiv dokumentiert, um Nachvollziehbarkeit und Transparenz zu gewährleisten.


[[LZ-2-8]]
==== LZ 2-8: Kennen die Grundaussagen des europäischen AI-Acts (insbesondere Transparenzpflichten) und kennen Strategien für deren Einhaltung sowie mögliche Herausforderungen dabei.
==== LZ 2-8: Fallstricke hinsichtlich Security sowie Angriffsarten auf ML-Modelle kennen

Die Teilnehmer:innen kennen mögliche Fallstricke hinsichtlich Security sowie typische Angriffsarten auf ML-Modelle. Dies betrifft beispielsweise:

* LLM-Jailbreaks durch Prompt-Engineering
* Adversarial Attacks
* Data Poisoning
* Model Inversion & Extraction.



[[LZ-2-9]]
==== LZ 2-9: Wissen, wie man Modelle und Datensätze effektiv dokumentiert, um Nachvollziehbarkeit und Transparenz zu gewährleisten.
==== LZ 2-9: AI-Risk Minimierung Strategien kennen und anwenden

Die Teilnehmer:innen wissen, wie Strategien zur AI-Risikominimierung entwickelt und angewendet werden können. Insbesondere kennen die Teilnehmer:innen die folgenden Strategien:

* Stärkung der Robustheit durch umfangreiche Tests
* Fehlertolerante KI-Systeme
* Transparente Entwicklung
* Erklärbare KI (explainable AI)


[[LZ-2-10]]
==== LZ 2-10: Kennen mögliche Fallstricke hinsichtlich Security.
==== LZ 2-10: Möglichkeiten zur Absicherung gegen Angriffe (AI Security) anwenden können

Die Teilnehmer:innen kennen verschiedene Möglichkeiten zur Absicherung gegen Angriffe (AI Security) und insbesondere kennen sie Möglichkeiten
zur Integration von Sicherheitsstandards in die Architektur und können diese beim Entwurf berücksichtigen.


[[LZ-2-11]]
==== LZ 2-11: Kennen typische Angriffsarten auf ML-Modelle und Beispiele dafür, u.a.: LLM-Jailbreaks durch Prompt-Engineering, Adversarial Attacks, Data Poisoning, Model Inversion & Extraction.
==== LZ 2-11: Grundproblematik und Facetten von AI-Safety verstehen

Die Teilnehmer:innen verstehen die Grundproblematik von AI-Safety und kennen die verschiedenen Facetten dazu. Insbesondere kennen die Teilnehmer:innen
spezifische Probleme wie beispielsweise "AI model risks by poisining" und "Bias".

[[LZ-2-12]]
==== LZ 2-12: Wissen, wie man AI-Risk Minimierung Strategien entwickelt und anwendet.
==== LZ 2-12: Probleme hinsichtlich Ethik, die KI-Systeme mit sich bringen können, verstehen und Ansätze zum Umgang mit ethischen Problemen kennen

[[LZ-2-13]]
==== LZ 2-13: Kennen verschiedene Möglichkeiten zur Absicherung gegen solche Angriffe (AI Security) und zur Integration von Sicherheitsstandards in die Architektur.
Die Teilnehmer:innen wissen um die Probleme hinsichtlich Ethik, die KI-Systeme mit sich bringen können und kennen Ansätze und Möglichkeiten, mit ethischen Problemen umzugehen. Dies umfasst beispielsweise KI-Alignment (und dessen Grenzen) sowie die Erstellung eigener KI-Richtlinien.

[[LZ-2-14]]
==== LZ 2-14: Kennen die Grundproblematik und die verschiedenen Facetten von AI-Safety.

[[LZ-2-15]]
==== LZ 2-15: Wissen um die Probleme hinsichtlich Ethik, die KI-Systeme mit sich bringen können
[[LZ-2-13]]
==== LZ 2-13: Ethik-Leitlinien überblicken

[[LZ-2-16]]
==== LZ 2-16: Kennen Ansätze und Möglichkeiten, mit ethischen Problemen umzugehen z.B. KI-Alignment (und dessen Grenzen) oder die Erstellung eigener KI-Richtlinien.
Die Teilnehmer:innen überblicken wichtige Ethik-Leitlinien wie die „EU-Ethik-Leitlinien für vertrauenswürdige KI“ sowie die „Google AI Ethics Guidelines“.

[[LZ-2-17]]
==== LZ 2-17: Kennen wichtige Ethik-Leitlinien wie die „EU-Ethik-Leitlinien für vertrauenswürdige KI“ sowie die „Google AI Ethics Guidelines“
[[LZ-2-14]]
==== LZ 2-14: Kernprinzipien zu AI Governance und Responsible AI für Unternehmen kennen

Die Teilnehmer:innen kennen die wichtigsten Dokumente zu AI Governance, um die Kernprinzipien zu AI Governance und Responsible AI für das Unternehmen auszuarbeiten. Dies betrifft
insbesondere die folgenden Dokumente:

[[LZ-2-18]]
==== LZ 2-18: Kennen die wichtigsten Dokumente zu AI Governance, um die Kernprinzipien zu AI Governance und Responsible AI für das Unternehmen auszuarbeiten.
* OECD AI Principles, https://oecd.ai/en/ai-principles
* The Asilomar AI Principles, https://futureoflife.org/open-letter/ai-principles/
* The IEEE Ethically Aligned Design framework, https://standards.ieee.org/wp-content/uploads/import/documents/other/ead_v2.pdf

[[LZ-2-19]]
==== LZ 2-19: Erhalten einen Einblick in die Einrichtung von "Regulatory Sandboxes" zur Förderung von Innovationen und die möglichen rechtlichen Konsequenzen bei Nichteinhaltung der Vorschriften des AI-Acts.
[[LZ-2-15]]
==== LZ 2-15: Einblick in die Einrichtung von "Regulatory Sandboxes" und die mögliche rechtliche Konsequenzen bei Nichteinhaltung der Vorschriften des AI-Acts überblicken

Die Teilnehmer:innen erhalten einen Einblick in die Einrichtung von "Regulatory Sandboxes" zur Förderung von Innovationen und
in die möglichen rechtlichen Konsequenzen bei Nichteinhaltung der Vorschriften des AI-Acts.

[[LZ-2-16]]
==== LZ 2-16: Strukturen und Prozesse für die Steuerung und Kontrolle von KI-Systemen, um ethische und gesetzliche Anforderungen zu erfüllen, verstehen

Die Teilnehmer:innen verstehen die Strukturen und Prozesse, die zur Steuerung und Kontrolle von KI-Systemen notwendig sind, um ethische und gesetzliche Anforderungen zu erfüllen.

[[LZ-2-20]]
==== LZ 2-20: Verstehen die Strukturen und Prozesse, die zur Steuerung und Kontrolle von KI-Systemen notwendig sind, um ethische und gesetzliche Anforderungen zu erfüllen.
[[LZ-2-17]]
==== LZ 2-17: Effektive Datenverwaltung für Qualität und Sicherheit von Daten in KI-Anwendungen sicherstellen

[[LZ-2-21]]
==== LZ 2-21: Wissen, wie effektive Datenverwaltung die Qualität und Sicherheit von Daten in KI-Anwendungen sicherstellt.
Die Teilnehmer:innen wissen, wie effektive Datenverwaltung die Qualität und Sicherheit von Daten in KI-Anwendungen sicherstellt.

[[LZ-2-18]]
==== LZ 2-18: Bedeutung und Umsetzung der Transparenzpflicht bei KI-Systemen verstehen

[[LZ-2-22]]
==== LZ 2-22: Verstehen die Bedeutung der Transparenzpflicht bei KI-Systemen und wissen, wie sie diese in der Praxis umsetzen können.
Die Teilnehmer:innen verstehen die Bedeutung der Transparenzpflicht bei KI-Systemen und wissen, wie sie diese in der Praxis umsetzen können.

// end::DE[]

Expand Down
Loading

0 comments on commit 48f9669

Please sign in to comment.