# Braindler Final Model v2 🎓 **Образовательный AI-ассистент для изучения русского языка** Модель fine-tuned на образовательных датасетах для помощи детям и взрослым в изучении русского языка. ## 📦 Доступные форматы ### HuggingFace (PyTorch) Стандартный формат для использования с Transformers (501 MB) ### GGUF (llama.cpp / Ollama) Оптимизированные квантизированные версии для локального запуска: | Версия | Размер | Качество | Рекомендация | |--------|--------|----------|--------------| | Q2_K | 68 MB | Минимальное | Слабые устройства 📱 | | Q3_K_S | 73 MB | Низкое | Мобильные 💻 | | Q4_K_S | 84 MB | Среднее | Баланс ⚖️ | | **Q4_K_M** | **90 MB** | **Хорошее** | ⭐ **РЕКОМЕНДУЕТСЯ** | | Q5_K_M | 99 MB | Высокое | Продакшн 💎 | | Q8_0 | 133 MB | Отличное | Максимум 🏆 | | F16 | 244 MB | Без потерь | GPU 🎯 | ## 📚 Датасеты для обучения 1. **mozgach_trener** (97 примеров) - Алфавит (66 примеров) - Цифры (11 примеров) - Цвета (10 примеров) - Геометрические фигуры (5 примеров) - Голосовые команды (5 примеров) 2. **alice_gift** (66 примеров) - Дополнительные текстовые данные на русском **Всего примеров: 163 | Эпох: 3** ## 🚀 Использование ### С Transformers (PyTorch) ```python from transformers import AutoModelForCausalLM, AutoTokenizer model = AutoModelForCausalLM.from_pretrained("nativemind/braindler_final_model") tokenizer = AutoTokenizer.from_pretrained("nativemind/braindler_final_model") prompt = "User: Как произносится буква А?\nAssistant:" inputs = tokenizer(prompt, return_tensors="pt") outputs = model.generate(**inputs, max_length=200, temperature=0.7) print(tokenizer.decode(outputs[0])) ``` ### С Ollama (GGUF) ⭐ Рекомендуется ```bash # 1. Скачайте GGUF файл huggingface-cli download nativemind/braindler_final_model \ braindler_final_model_Q4_K_M.gguf --local-dir ./ # 2. Создайте Modelfile cat > Modelfile << 'EOF' FROM ./braindler_final_model_Q4_K_M.gguf TEMPLATE """{{- if .System }}System: {{ .System }}{{- end }} User: {{ .Prompt }} Assistant:""" PARAMETER temperature 0.7 PARAMETER top_p 0.9 PARAMETER num_ctx 2048 SYSTEM """Ты - Braindler, образовательный ассистент для изучения русского языка. Помогаешь учить буквы, цифры, цвета и слова. Отвечай дружелюбно и понятно.""" EOF # 3. Создайте модель ollama create braindler -f Modelfile # 4. Запустите ollama run braindler ``` ### С llama.cpp ```bash # Скачайте GGUF файл и запустите ./llama-cli \ -m braindler_final_model_Q4_K_M.gguf \ -p "User: Расскажи о букве А\nAssistant:" \ -n 128 --temp 0.7 -ngl 99 ``` ## 📖 Примеры ``` User: Как произносится буква А? Assistant: Буква 'А' произносится как 'а'. Попробуй произнести её вслух: а. User: Назови слова на букву Б Assistant: Слова на букву 'б': банан, бабочка, барабан, белка User: Что такое треугольник? Assistant: Треугольник - это фигура с 3 сторонами и 3 углами. Похож на крышу дома. ``` ## 📊 Характеристики модели - Базовая модель: nativemind/braindler_full_trained_model - Архитектура: GPT-2 (125M параметров) - Язык: Русский 🇷🇺 - Контекст: 2048 токенов - Задача: Text Generation, Образовательный ассистент - Лицензия: NativeMindNONC (Non-Commercial) ## 🎯 Применение - Образовательные приложения для детей - Обучение русскому языку - Интерактивные образовательные боты - Голосовые ассистенты - Локальные AI приложения ## ⚙️ Рекомендации по выбору версии - **Мобильные устройства**: Q2_K или Q3_K_S - **Десктопы/ноутбуки**: Q4_K_M ⭐ (лучший баланс) - **Продакшн**: Q5_K_M - **Максимальное качество**: Q8_0 или F16 ## 🔗 Ссылки - **Model**: https://huggingface.co/nativemind/braindler_final_model - **Dataset 1**: https://huggingface.co/datasets/nativemind/mozgach_trener - **Dataset 2**: https://huggingface.co/datasets/nativemind/mozgach_alice_gift ## 📧 Контакты - Email: anton.v.dodonov@gmail.com - HuggingFace: nativemind - Дата: 2025-10-20 --- © 2025 NativeMind. Для некоммерческого использования. **Образование должно быть доступным!** 🎓