Aus dem Kurs: KI-Anwendungen und Agenten planen und entwickeln

Erhalten Sie Zugriff auf diesen Kurs – mit einer kostenlosen Probeversion

Werden Sie noch heute Mitglied und erhalten Sie Zugriff auf mehr als 25.300 Kurse von Branchenfachleuten.

Der erste Prompt

Der erste Prompt

Nun wollen wir mit Ollama starten und die ersten Beispiele entwickeln. Der erste Schritt hierfür ist, dass wir ein zusätzliches Package brauchen, nämlich Ollama. Das machen wir, indem wir sagen pip install ollama. Damit wird Ollama installiert. Wenn das erfolgreich gestartet wurde, können wir auch bereits unser erstes Beispiel machen. Ich habe hier eine neue Python Datei erstellt, die nennt sich demool01.py und mit dieser werden wir jetzt anfangen zu arbeiten. Wir importieren uns als Erstes mal Flask wieder from flask import. Flask und dann benötigen wir Ollama. Und das machen wir mit from ollama import und hier brauchen wir eine Klasse, nämlich generate. Diese generate Klasse kann uns nun unsere Response von einem Modell zurückgeben. Was wir auch noch machen müssen, wir müssen unsere App konfigurieren. App = flask Klammer auf, Unterstrich, Unterstrich Name. Damit das auch fertig ist. Und nun erstellen wir uns unsere erste Anfrage an ein lokales Modell. Hierzu bauen wir eine App Route…

Inhalt