nativemind's picture
Upload folder using huggingface_hub
ac17011 verified
# Braindler Final Model v2
🎓 **Образовательный AI-ассистент для изучения русского языка**
Модель fine-tuned на образовательных датасетах для помощи детям и взрослым в изучении русского языка.
## 📦 Доступные форматы
### HuggingFace (PyTorch)
Стандартный формат для использования с Transformers (501 MB)
### GGUF (llama.cpp / Ollama)
Оптимизированные квантизированные версии для локального запуска:
| Версия | Размер | Качество | Рекомендация |
|--------|--------|----------|--------------|
| Q2_K | 68 MB | Минимальное | Слабые устройства 📱 |
| Q3_K_S | 73 MB | Низкое | Мобильные 💻 |
| Q4_K_S | 84 MB | Среднее | Баланс ⚖️ |
| **Q4_K_M** | **90 MB** | **Хорошее** | ⭐ **РЕКОМЕНДУЕТСЯ** |
| Q5_K_M | 99 MB | Высокое | Продакшн 💎 |
| Q8_0 | 133 MB | Отличное | Максимум 🏆 |
| F16 | 244 MB | Без потерь | GPU 🎯 |
## 📚 Датасеты для обучения
1. **mozgach_trener** (97 примеров)
- Алфавит (66 примеров)
- Цифры (11 примеров)
- Цвета (10 примеров)
- Геометрические фигуры (5 примеров)
- Голосовые команды (5 примеров)
2. **alice_gift** (66 примеров)
- Дополнительные текстовые данные на русском
**Всего примеров: 163 | Эпох: 3**
## 🚀 Использование
### С Transformers (PyTorch)
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("nativemind/braindler_final_model")
tokenizer = AutoTokenizer.from_pretrained("nativemind/braindler_final_model")
prompt = "User: Как произносится буква А?\nAssistant:"
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_length=200, temperature=0.7)
print(tokenizer.decode(outputs[0]))
```
### С Ollama (GGUF) ⭐ Рекомендуется
```bash
# 1. Скачайте GGUF файл
huggingface-cli download nativemind/braindler_final_model \
braindler_final_model_Q4_K_M.gguf --local-dir ./
# 2. Создайте Modelfile
cat > Modelfile << 'EOF'
FROM ./braindler_final_model_Q4_K_M.gguf
TEMPLATE """{{- if .System }}System: {{ .System }}{{- end }}
User: {{ .Prompt }}
Assistant:"""
PARAMETER temperature 0.7
PARAMETER top_p 0.9
PARAMETER num_ctx 2048
SYSTEM """Ты - Braindler, образовательный ассистент для изучения русского языка. Помогаешь учить буквы, цифры, цвета и слова. Отвечай дружелюбно и понятно."""
EOF
# 3. Создайте модель
ollama create braindler -f Modelfile
# 4. Запустите
ollama run braindler
```
### С llama.cpp
```bash
# Скачайте GGUF файл и запустите
./llama-cli \
-m braindler_final_model_Q4_K_M.gguf \
-p "User: Расскажи о букве А\nAssistant:" \
-n 128 --temp 0.7 -ngl 99
```
## 📖 Примеры
```
User: Как произносится буква А?
Assistant: Буква 'А' произносится как 'а'. Попробуй произнести её вслух: а.
User: Назови слова на букву Б
Assistant: Слова на букву 'б': банан, бабочка, барабан, белка
User: Что такое треугольник?
Assistant: Треугольник - это фигура с 3 сторонами и 3 углами. Похож на крышу дома.
```
## 📊 Характеристики модели
- Базовая модель: nativemind/braindler_full_trained_model
- Архитектура: GPT-2 (125M параметров)
- Язык: Русский 🇷🇺
- Контекст: 2048 токенов
- Задача: Text Generation, Образовательный ассистент
- Лицензия: NativeMindNONC (Non-Commercial)
## 🎯 Применение
- Образовательные приложения для детей
- Обучение русскому языку
- Интерактивные образовательные боты
- Голосовые ассистенты
- Локальные AI приложения
## ⚙️ Рекомендации по выбору версии
- **Мобильные устройства**: Q2_K или Q3_K_S
- **Десктопы/ноутбуки**: Q4_K_M ⭐ (лучший баланс)
- **Продакшн**: Q5_K_M
- **Максимальное качество**: Q8_0 или F16
## 🔗 Ссылки
- **Model**: https://huggingface.co/nativemind/braindler_final_model
- **Dataset 1**: https://huggingface.co/datasets/nativemind/mozgach_trener
- **Dataset 2**: https://huggingface.co/datasets/nativemind/mozgach_alice_gift
## 📧 Контакты
- Email: [email protected]
- HuggingFace: nativemind
- Дата: 2025-10-20
---
© 2025 NativeMind. Для некоммерческого использования.
**Образование должно быть доступным!** 🎓