Treffen am Donnerstag 8.5.

Einladung zum WOBLUG-Technik-Treff

Hallo allerseits,

am nächsten Donnerstag treffen wir uns zum Technik-Treff. Wer mag, kann Geräte und Fragen mitbringen und wir werden uns nach bestem Wissen und Gewissen damit befassen.

Wer beim Sommertreff um am 12. Juni dabei sein möchte, antworte bitte einfach auf diese E-Mail, damit wir einen Tisch bei unserem Lieblingsrestaurant bestellen können.

Donnerstag, 8. Mai 19:00 Uhr
Ostfalia Campus Wolfsburg, Gebäude C, Seminarraum 127, Robert-Koch-Platz 8A, 38440 Wolfsburg Stadtplan anzeigen , Navigation und Fahrplanauskunft

Ostfalia – Treffen im Gebäude C rechts

Europas Alternativen – Jetzt erst recht

Wenn Europa plötzlich feststellt, dass die Abhängigkeit gegenüber auch gegenüber den lange vertrauten USA nicht mehr so gut sein kann, dann kommen den Leuten plötzlich Europäische-Alternativen für alle möglichen Bereiche in den Sinn. Für meinen Teil habe ich nun als Standardsuche im Browser www.qwant.com eingestellt. Die Aufmachung, die Ergebnisse und die Performance überzeugen bisher.
Weitere Ideen für alle möglichen Lebensbereiche findet man unter:
www.goeuropean.org

Lesestoff

Die aktuelle LinuxUser Community-Edition widmet sich dem Thema KI IM ALLTAG.
u.a. folgende Themen:
Programmieren mit Unterstützung von KI-Assistenten
Ditana GNU/Linux: einfach zu bedienen und zu konfigurieren
Chatbot-Plugin Copilot.vim für den Editor Vim

Bis dann,
Norbert

Treffen am Donnerstag 10.04.

Einladung zum WOBLUG-Technik-Treff

Hallo allerseits,

am nächsten Donnerstag treffen wir uns zum Technik-Treff. Wer mag, kann Geräte und Fragen mitbringen und wir werden uns nach bestem Wissen und Gewissen damit befassen.
Die Details zu dem Offline-Ki-Vortrag aus dem März-Treffen befinden sich jetzt online auf der Webseite.

Donnerstag, 10. April 19:00 Uhr
Ostfalia Campus Wolfsburg, Gebäude C, Seminarraum 127, Robert-Koch-Platz 8A, 38440 Wolfsburg Stadtplan anzeigen , Navigation und Fahrplanauskunft

Ostfalia – Treffen im Gebäude C rechts

Europas Alternativen

„Ausgang aus der digitalen Unmündigkeit“ schrieb kürzlich der Oliver Diedrich (iX-Redakteur) als Überschrift im Editorial. Er beschreibt darin Europas Abhängigkeit von US-Digitaldiensten und ob man das nicht hätte vorhersehen können, dass es nicht ewig so bequem weiter bleiben würde. Zum Abschluss wird auf european-alternatives.eu verwiesen. Dort sind übersichtlich zahlreiche europäische Software- und Dienstanbieter als Alternative zu den US-Herstellern zusammengestellt.

CLT2025 – Aufzeichnungen jetzt online

Nun sind bereits alle Aufzeichnungen der zahlreichen Vorträge der Chemnitzer-Linux-Tage online. In einigen Videos bin ich kurz bei der Abmoderation zu hören. Es hat wieder sehr viel Spaß gemacht und war sowohl für die angereisten WOBLUG-Mitglieder, als auch meine Söhne ein Wochenende mit vielen Inspirationen an der TU-Chemnitz. Wir freuen uns auf 2026.

Lesestoff

Die aktuelle LinuxUser Community-Edition widmet sich dem Thema NETZ & SYSTEM.
u.a. folgende Themen:
Brückenschlag: Datensynchronisation zwischen Android und Linux
Schatteneffekte in der Bildbearbeitung
Massenspeicher mithilfe von ShredOS sicher löschen

Bis dann,
Norbert

Offline Ki – Ollama auf Linux

Einfache Installation und Nutzung großer Sprachmodelle

In der Welt der Künstlichen Intelligenz spielen große Sprachmodelle eine immer wichtigere Rolle. Mit Ollama, einem Open-Source-Tool, lassen sich diese Modelle direkt auf einem lokalen System betreiben. Besonders für Entwickler und KI-Enthusiasten bietet Ollama eine praktische Möglichkeit, leistungsstarke Sprachmodelle offline zu nutzen.

Was ist Ollama?

Ollama ist eine Software, mit der sich verschiedene vortrainierte Sprachmodelle ausführen lassen. Diese Modelle können für unterschiedliche Zwecke eingesetzt werden, wie z. B. Textgenerierung, Code-Vervollständigung oder Sprachverarbeitung.

Die offizielle Website von Ollama bietet eine große Auswahl an trainierten Modellen: https://ollama.com.

Installation von Ollama auf Linux

Die Installation von Ollama erfolgt über den Terminal. Dazu genügt ein einfacher Befehl:

curl -fsSL https://ollama.com/install.sh | sh

Nach der Eingabe installiert sich die Software automatisch und ist sofort einsatzbereit.

Sprachmodelle herunterladen und nutzen

Um ein Sprachmodell zu nutzen, kann man es direkt von der Ollama-Website auswählen und herunterladen. Jedes Modell hat unterschiedliche Spezifikationen und ist für verschiedene Einsatzzwecke optimiert.

Ein Beispiel ist Starcoder2, ein Modell, das Entwickler beim Programmieren unterstützt.

Sobald ein Modell ausgewählt wurde, erhält man auf der Website den passenden Terminal-Befehl zur Installation, zum Beispiel:

ollama pull starcoder2

Nach dem Download kann das Modell direkt im Terminal gestartet werden:

ollama run starcoder2

Verfügbare Modelle anzeigen

Falls man sich nicht sicher ist, welche Modelle bereits installiert sind, kann man mit folgendem Befehl eine Liste abrufen:

ollama list

Hier sieht man alle heruntergeladenen Modelle, die man dann individuell starten kann.

Fazit

Ollama ist eine praktische Lösung für alle, die KI-Modelle lokal auf ihrem Linux-System ausführen möchten. Dank der einfachen Installation und der großen Auswahl an verfügbaren Modellen bietet es eine flexible Möglichkeit, mit modernen Sprachmodellen zu arbeiten – ganz ohne Cloud-Abhängigkeit.

Hast du bereits Erfahrungen mit Ollama gemacht? Teile deine Eindrücke in den Kommentaren!

Michael hat die Dokumentation von seinem Vortrag beim März-Treffen hier zur Verfügung gestellt.