<\/div>\n\n\n\n
Erstelle nach der erfolgreichen Installation ein leeres Python-Script mit folgendem Inhalt:<\/p>\n\n\n\n
import<\/span> ollama<\/span>\nresponse<\/span> =<\/span> ollama<\/span>.chat<\/span>(model<\/span>=<\/span>'mistral'<\/span>, messages<\/span>=<\/span>[\n {\n 'role'<\/span>: 'user'<\/span>,\n 'content'<\/span>: 'Welche Farben k\u00f6nnen B\u00e4ren haben? Antworte auf Deutsch.'<\/span>,\n },\n])\nprint<\/span>(response<\/span>['message'<\/span>]['content'<\/span>])<\/path><\/path><\/div> <\/code><\/pre>\n\n\n\n
<\/div>\n\n\n\n
Im obigen Script ist wieder das Sprachmodell von Mistral hinterlegt. Falls du ein anderes verwendest, trage es in der zweiten Zeile hinter model=<\/strong> ein.<\/p>\n\n\n\nSpeiche die Datei nun ab und f\u00fchre sie aus. Vermutlich wirst du ziemlich lange warten m\u00fcssen, bis die Antwort erscheint. Das kannst du mit einem Stream verbessern \u2013 hierdurch erscheint die lange Antwort Wort f\u00fcr Wort zum Mitlesen. Verwende hierf\u00fcr den folgenden angepassten Code:<\/p>\n\n\n\n
import ollama\n\nstream = ollama.chat(\n model='mistral',\n messages=[{'role': 'user', 'content': 'Welche Farben k\u00f6nnen B\u00e4ren haben? Anworte auf Deutsch'}],\n stream=True,\n)\n\nfor chunk in stream:\n print(chunk['message']['content'], end='', flush=True)<\/code><\/pre>\n\n\n\n<\/div>\n\n\n\n
Weitere Rollen verwenden<\/h2>\n\n\n\n
\u00c4hnlich wie bei ChatGPT kannst du auch in Ollama in deinen Rollen zuteilen. Wenn du also deine Antworten z.B. immer auf Deutsch erhalten m\u00f6chtest, hilft dir die Rolle system<\/strong> weiter. Dort kannst du die entsprechende Anweisung hinterlegen, sodass die Rolle user<\/strong> nur deine Frage enth\u00e4lt:<\/p>\n\n\n\nmessages=[{'role': 'user', 'content': 'Welche Farben k\u00f6nnen B\u00e4ren haben?'},\n {'role': 'system', 'content': 'Antworte auf Deutsch'}],<\/code><\/pre>\n\n\n\n<\/div>\n\n\n\n
Jetzt kennst du die Grundlagen, um mit Ollama auf deinem eigenen Rechner Sprachmodelle auszuf\u00fchren und in deine Projekte einzubinden. Es gibt nat\u00fcrlich noch viel mehr zu entdecken: Die verschiedenen Modelle besitzen alle unterschiedliche F\u00e4higkeiten \u2013 hier lohnt sich ein intensiver Blick, besonders da die Entwicklung nat\u00fcrlich nicht stehen bleibt.<\/p>\n\n\n\n
<\/p>\n\n\n\n
<\/p>\n\n\n\n
<\/p>\n\n\n\n
<\/p>\n","protected":false},"excerpt":{"rendered":"
Hier auf Pollux Labs konntest du bereits dar\u00fcber lesen, wie du z.B. die API von OpenAI nutzt, um mit ChatGPT zu interagieren. Aber das geht auch lokal auf deinem eigenen Rechner \u2013 zwar nicht mit ChatGPT, daf\u00fcr jedoch mit anderen Sprachmodellen wie Mistral, Gemma, Llama2 und vielen anderen. Hierf\u00fcr nutzt du das Tool Ollama. In …<\/p>\n
Mit Ollama Sprachmodelle lokal nutzen<\/span> Weiterlesen »<\/a><\/p>\n","protected":false},"author":1,"featured_media":16112,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"site-sidebar-layout":"","site-content-layout":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","theme-transparent-header-meta":"","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","footnotes":""},"categories":[219],"tags":[223],"class_list":["post-16091","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-raspberry-pi-projekte","tag-mitglieder"],"acf":[],"wp-worthy-pixel":{"ignored":false,"public":"08f281c344ee4378ac64ef267656a7dc","server":"vg04.met.vgwort.de","url":"https:\/\/vg04.met.vgwort.de\/na\/08f281c344ee4378ac64ef267656a7dc"},"wp-worthy-type":"normal","_links":{"self":[{"href":"https:\/\/polluxlabs.net\/wp-json\/wp\/v2\/posts\/16091"}],"collection":[{"href":"https:\/\/polluxlabs.net\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/polluxlabs.net\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/polluxlabs.net\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/polluxlabs.net\/wp-json\/wp\/v2\/comments?post=16091"}],"version-history":[{"count":1,"href":"https:\/\/polluxlabs.net\/wp-json\/wp\/v2\/posts\/16091\/revisions"}],"predecessor-version":[{"id":17747,"href":"https:\/\/polluxlabs.net\/wp-json\/wp\/v2\/posts\/16091\/revisions\/17747"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/polluxlabs.net\/wp-json\/wp\/v2\/media\/16112"}],"wp:attachment":[{"href":"https:\/\/polluxlabs.net\/wp-json\/wp\/v2\/media?parent=16091"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/polluxlabs.net\/wp-json\/wp\/v2\/categories?post=16091"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/polluxlabs.net\/wp-json\/wp\/v2\/tags?post=16091"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}