vermutlich sitzt das Problem vor dem Rechner, aber ich schaffe es nicht das LM Studio und Devonthink beta 1 miteinander reden.
Der LM Studio Server läuft, der Pfad ist in den Devon-Einstellungen eingetragen, aber wenn ich das Chatfenster öffne kann ich nichts eingeben, weil Devon scheinbar den Server von LM nicht findet.
Hat jemand eine Idee was da noch zu beachten ist?
Gruß Ulrich
Auch nicht nach einem Neustart von DEVONthink 4? DEVONthink 4 lädt die verfügbaren Modelle nur beim Start oder wenn sich der API-Key oder die API-URL in den Einstellungen geändert haben.
Ich habe beides nochmal nur gestartet und es ändert sich nichts, Screenshots anbei.
Nun habe ich mit LM aber auch Null Erfahrung, ich wollte es jetzt mal wg. den neuen Devon-Funktionen ausprobieren.
Die URL stimmt anscheinend nicht, voreingestellt ist diese http://localhost:1234/v1/chat/completions. Falls diese nicht funktioniert, dann sollte nur der Host angepasst werden, aber nicht der Pfad der URL.
Habe das gleiche Problem beim Einrichten, allerdings mit Ollama und mistral (LLM). Der Server läuft (Meldung http://localhost:11343 Ollama ist running). Auch bei mir ist das Feld zur Auswahl der LLM ausgegraut. und kein Chat möglich
Die Lösung bei mir war, dass an dir URL noch chat/completations drangehangen werden muss, was LM auch nicht als Standard URL mitgibt anbei meine Konfiguration.
sorry, dass ich mich erst jetzt melde, war allerdings unterwegs. @Spenser Das Anhängen hat zu keiner veränderung geführt. @cgrunenberg Ich habe keine Veränderungen an der URL und dem Port vorgenommen vorgenommen. Ich hielt es auch nicht für notwendig, da Ollama mit der LLM Mistral lokal läuft.