Aus dem Kurs: KI-Anwendungen und Agenten planen und entwickeln
Erhalten Sie Zugriff auf diesen Kurs – mit einer kostenlosen Probeversion
Werden Sie noch heute Mitglied und erhalten Sie Zugriff auf mehr als 25.300 Kurse von Branchenfachleuten.
Einführung in Ollama
Aus dem Kurs: KI-Anwendungen und Agenten planen und entwickeln
Einführung in Ollama
Nun wollen wir uns ansehen, wie man LLMs lokal ausführen kann. Wichtig ist hierbei, dass Sie genug Arbeitsspeicher, CPU und auch eine leistungsfähige GPU haben, sonst wird das Ganze leider nicht gut funktionieren. Um ein Modell lokal auszuführen, installieren wir uns die Software Ollama. Diese ist Open Source verfügbar und unter der Domäne ollama.com downloadbar. Hier gibt es eine ganze Reihe an Modellen, die man verwenden kann. Wir sehen uns das überblicksmäßig mal an, indem wir auf Modelle hier klicken. Wir haben zum einen GPT-OSS, das ist OpenAIs Open Source Version von ChatGPT, die allseits bekannt ist. Diese Version werden wir verwenden. Dann haben wir Deepseek verfügbar. Wir haben Gemma verfügbar, das ist die Version von Google. Dann haben wir Qwen verfügbar, das ist ein Open Source Modell von Alibaba. Wir haben ein lLama verfügbar, das ist ein Open Source Modell von Meta und auch dieses werden wir laden. Wir klicken hierzu auf Llama 3.1 und kopieren uns diesen Text heraus…
Üben mit Projektdateien
Laden Sie die Dateien herunter, die von den Trainer:innen verwendet werden. So können Sie mitlesen und durch Ansehen, Zuhören und Üben lernen.
Inhalt
-
-
-
-
-
(Gesperrt)
Einführung in Ollama3 Min. 59 Sek.
-
(Gesperrt)
Der erste Prompt4 Min.
-
(Gesperrt)
Modellfähigkeiten abfragen2 Min. 42 Sek.
-
(Gesperrt)
Bilder erkennen3 Min. 51 Sek.
-
(Gesperrt)
Informationen strukturiert ausgeben6 Min. 43 Sek.
-
(Gesperrt)
Komplexe Workflows abbilden – Teil 13 Min. 39 Sek.
-
(Gesperrt)
Tools verwenden – Teil 14 Min. 44 Sek.
-
(Gesperrt)
ModelFile verstehen3 Min. 28 Sek.
-
(Gesperrt)