Was sind die neuesten Entwicklungen in der KI-Forschung?

MyOOS hat einen Fehler, oder tut nicht das, was Ihr erwartet? Derartige "Unanehmlichkeiten" bitte hier.
Gesperrt
r23
Beiträge: 2696
Registriert: 18.09.2008, 05:56
Wohnort: Hagen
Kontaktdaten:

Was sind die neuesten Entwicklungen in der KI-Forschung?

Beitrag von r23 »

Hallo,

laut dem Bericht "Gathering Strength, Gathering Storms" des One Hundred Year Study on Artificial Intelligence (AI100) hat die KI-Forschung in den letzten fünf Jahren große Fortschritte in fast allen ihren Standard-Teilbereichen erzielt, wie z.B. Bildverarbeitung, Spracherkennung und -erzeugung, natürliche Sprachverarbeitung (Verstehen und Erzeugen), Bild- und Videogenerierung, Multi-Agenten-Systeme, Planung, Entscheidungsfindung und Integration von Sehen und Motorsteuerung für Robotik³.

Einige der spannenden Innovationen in der KI, die für Unternehmen nützlich sein werden, sind laut dem Gartner Hype Cycle 2023⁴:

- Generative AI, das kreative Inhalte wie Texte, Bilder, Videos, Musik und Kunst erzeugen kann.

- Explainable AI, das die Entscheidungen und Handlungen von KI-Systemen transparent und verständlich macht.

-Adaptive Machine Learning, das KI-Modelle an sich ändernde Daten und Umgebungen anpassen kann.

-AI-Augmented Design, das menschliche Designer bei der Erstellung von Produkten, Dienstleistungen und Erfahrungen unterstützt.

- AI-Enabled Drug Discovery, das die Entwicklung neuer Medikamente beschleunigt und verbessert.


Wie funktioniert Explainable AI?

Explainable AI (XAI) ist ein Bereich der künstlichen Intelligenz, der sich damit beschäftigt, wie KI-Systeme ihre Entscheidungen und Handlungen transparent und verständlich machen können. XAI versucht, die sogenannten Black-Box-Modelle zu öffnen, die komplexe und nicht-lineare Berechnungen durchführen, die für Menschen schwer nachzuvollziehen sind.

XAI verwendet verschiedene Methoden, um die wichtigsten Faktoren zu identifizieren, die zu einer Vorhersage oder einem Ergebnis beitragen, und diese in einer menschenfreundlichen Sprache oder Visualisierung zu präsentieren.

XAI kann helfen, das Vertrauen und die Akzeptanz von KI zu erhöhen, die Leistung und Fairness von KI-Modellen zu verbessern und die Verantwortlichkeit und Ethik von KI-Anwendungen zu fördern. Möchtest Du ein Beispiel für XAI sehen?

Gerne. Hier ist ein Beispiel für Explainable AI, das ich mit dem Google Cloud Service erstellt habe.
https://cloud.google.com/explainable-ai?hl=de


Ich habe ein XGBoost-Modell trainiert, um den Medianwert von Häusern in Kalifornien vorherzusagen, basierend auf verschiedenen Merkmalen wie Einkommen, Bevölkerung, Lage usw. Dann habe ich die SHAP-Bibliothek verwendet, um die Beiträge jedes Merkmals zu einer bestimmten Vorhersage zu berechnen und zu visualisieren. Das folgende Diagramm zeigt die partielle Abhängigkeit des Merkmals "MedInc" (Median-Einkommen) auf die Vorhersage, sowie den SHAP-Wert für ein bestimmtes Beispiel

```python

Code: Alles auswählen

# train XGBoost model
import xgboost
model_xgb = xgboost.XGBRegressor(n_estimators=100, max_depth=2).fit(X, y)

# explain the GAM model with SHAP
explainer_xgb = shap.Explainer(model_xgb, X100)
shap_values_xgb = explainer_xgb(X)

# make a standard partial dependence plot with a single SHAP value overlaid
fig, ax = shap.partial_dependence_plot(
    "MedInc", model_xgb.predict, X100, model_expected_value=True,
    feature_expected_value=True, show=False, ice=False,
    shap_values=shap_values_xgb[sample_ind:sample_ind+1,:],
)
```
Beste Grüße

Ralf
Gesperrt