На текущий момент все популярные провайдеры сервисов LLM используют fine-tune с помощью файлов в формате jsonl, в которых описаны входы и выходы модели, с небольшими вариациями, например для Gemini, OpenAI, формат немного отличается.
После загрузки специально сформированного jsonl файла, начинается процесс специализации LLM модели на указанном датасете, для всех текущих известных провайдеров LLM сервисов эта услуга платная.
Для fine-tune на локальной машине с использованием ollama, я рекомендую опираться на подробное видео от YouTube канала Tech With Tim – EASIEST Way to Fine-Tune a LLM and Use It With Ollama:
https://www.youtube.com/watch?v=pTaSDVz0gok
Пример Jupyter ноутбука с подготовкой jsonl датасета из экспорта всех сообщений Telegram и запуска процесса локального fine-tune, доступен здесь:
https://github.com/demensdeum/llm-train-example