<===
2026-01-29 21:42:36
Вот твоя «статейка» в блокнот — всё наше общение + мои рекомендации, оформлено как заметка для разработчика, который ленится ковыряться в regex и скриптах. Копируй-вставляй куда удобно (Notion, Obsidian, txt, md).
```markdown
# Локальный AI для ленивого кодера: быстрые функции на bash/perl/php/python (2026)
Дата: конец января 2026
Железо: JAN.ai (локальный фронт), модели в GGUF
Текущий стек: Cotype-Nano (MTS AI) bf16 + Q8_0, Jan-v1-edge Q8_0
Проблема: часто нужна мелкая функция/скрипт с regex — лень глубоко копаться в синтаксисе, флагах, экранировании, edge-кейсах.
## Мои текущие модели (что уже стоит и работает)
- cotype_nano_bf16.gguf (~3.1 GB) — полный bf16, максимум точности на русском, но жрёт память (~6–7 GB VRAM/RAM), медленнее.
- Cotype-Nano-Q8_0.gguf (~1.65 GB) — золотая середина: качество почти как bf16, ~3–4 GB VRAM, скорость хорошая, русский держит отлично.
- Jan-v1-edge-Q8_0.gguf (~1.83 GB) — от JAN, заточен под код/чат, инструкции, рефакторинг; ~4–5 GB VRAM.
Эти модели норм для простых задач, но на сложных regex, perl-style паттернах, bash one-liner'ах или php preg_* часто лажают: галлюцинируют флаги, забывают экранировать, не учитывают unicode/multibyte.
## Рекомендации: что апгрейдить прямо сейчас (для JAN / llama.cpp)
Цель — модели, которые реально круто пишут regex + скрипты на bash/perl/php/python, без лишнего мусора.
### Топ-рекомендация №1 (must-try в 2026)
**Qwen2.5-Coder-7B-Instruct** (Q5_K_M / Q6_K / Q8_0)
- Почему лучший выбор именно для нас:
- Сильнейшая среди открытых <10B на codegen + regex + scripting (bash, perl-like, python re, php preg).
- Меньше галлюцинаций в сложных паттернах, лучше понимает "сделай безопасно / unicode / экранируй".
- Бенчмарки 2025–2026: часто обходит 13–32B старые модели на коде.
- Размеры GGUF (bartowski / lmstudio-community / официал Qwen):
- Q5_K_M ~4.5–5 GB → влезет в 8–12 GB VRAM, 50–90 tok/s на RTX 40xx.
- Q8_0 — почти lossless, чуть тяжелее.
- Где скачать:
https://huggingface.co/bartowski/Qwen2.5-Coder-7B-Instruct-GGUF
(или Qwen/Qwen2.5-Coder-7B-Instruct-GGUF)
Команда: `huggingface-cli download bartowski/Qwen2.5-Coder-7B-Instruct-GGUF --include "*Q5_K_M.gguf" ...`
### Лёгкие альтернативы (если 7B тяжеловато)
- Qwen2.5-Coder-1.5B / 3B-Instruct → ~1–2.5 GB в Q6/Q8, летает на слабом железе, regex и скрипты лучше Cotype-Nano.
- Phi-4-mini-instruct (~3.8B) → топ на reasoning + код, размер ~2–3 GB Q6/Q8, часто на уровне 7–9B 2024.
- SmolLM3-3B (Hugging Face) → новинка, сильный на маленьком размере, regex/скриптинг ок.
### Идеальный промпт-шаблон (чтобы получать чистый код без воды)
```
Ты эксперт по [bash / perl / php / python]. Напиши ОДНУ короткую функцию / one-liner.
Задача: [очень чётко, например: "извлечь все email, заканчивающиеся на @example.com или @corp.ru из многострочной строки"]
Язык: python / bash / perl / php — строго один
Требования:
- Только стандартная библиотека (без pip/cpan/pear)
- Максимально безопасно: экранирование, unicode-support
- Комментарии ТОЛЬКО к сложному regex
- Верни ТОЛЬКО код функции + 1–2 примера вызова, без объяснений и преамбул
Пример ввода: "..."
Ожидаемый вывод: [...]
```
Примеры задач, где это спасает часы:
- bash: переименовать все .jpg → .JPG рекурсивно
- perl: заменить даты DD.MM.YYYY → YYYY-MM-DD во всех файлах
- php: нормализация РФ/UA телефонов (+7, 8, скобки, дефисы)
- python: топ-10 IP с 404 из nginx access.log
## Итог: план действий
1. Скачай Qwen2.5-Coder-7B-Instruct Q5_K_M или Q6_K от bartowski → закинь в JAN.
2. Протести на 3–5 своих типичных regex-задач.
3. Если влезает по памяти — оставь как основную для скриптов. Cotype/Jan-edge — для русского текста/объяснений.
4. Если скорость важнее качества — бери 1.5B/3B версию Qwen-Coder.
Сэкономленное время = куча кофе и меньше ругани на regex. Удачи, кодер! 🚀
```