Newton Bot 3
Developed by Kolyadual
Описание • Ключевые Особенности • Использование
Описание модели
Newton Bot 3 — это высокопроизводительная модель нового поколения из семейства Newton bot, созданная буквально для всего! Основанная на мощном фундаменте Qwen и дистиллированная с использованием методик DeepSeek-R1, также дообученая на датасете Gemini от TeichAI. Нейросеть сочетает в себе глубокие знания и умение строить многоступенчатые цепочки рассуждений (Chain-of-Thought).
Newton bot 3 text mini - модель Newton bot 3, оптимизированная для работы на компьютерах, генерации текста, кодинга и всего что связано с текстом.
Ключевые особенности:
- Продвинутый Reasoning: Модель сначала "думает", выстраивая логическую структуру ответа, а затем выдает результат.
- Мастер Кодинга: Оптимизирована для написания сложного кода, отладки и архитектурного планирования.
- Математический интеллект: Способна решать задачи уровня олимпиад и высшей математики.
- Мультиязычность: Полная поддержка русского и английского языков с учетом культурного контекста.
- Рецепты: Огромная база данных кулинарных рецептов
- Профи-функционал: 8B параметров - хорошие значения для общения с нейросетью и познания чего-либо нового! По максимуму точная модель, дообученая на лидирующих поделях таких как DeepSeek, Gemini 3 pro, Claude 4.5 дает максимально точный ответ в рамках 2025-2026 годов (и раньше).
Как использовать
Вы можете запустить Newton Bot 3 локально, используя библиотеку transformers:
from transformers import AutoModelForCausalLM, AutoTokenizer
model_id = "Kolyadual/Newton-bot-3-text-mini-8B" # Или же путь к папке с моделью
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype="auto",
device_map="auto"
)
prompt = "Реши уравнение Шрёдингера для частицы в бесконечной потенциальной яме."
messages = [{"role": "user", "content": prompt}]
inputs = tokenizer.apply_chat_template(messages, add_generation_prompt=True, return_tensors="pt").to("cuda")
outputs = model.generate(inputs, max_new_tokens=1024)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Merge Details
Merge Method
This model was merged using the SLERP merge method.
Models Merged
The following models were included in the merge:
- Qwen
- Gemini
- DeepSeek
Configuration
The following YAML configuration was used to produce this model:
slices:
- sources:
- model: DeepSeek-qwen-moe
layer_range: [0, 36]
- model: Gemini
layer_range: [0, 36]
- model: Claude
layer_range: [0, 36]
merge_method: slerp
base_model: DeepSeek-qwen-moe
parameters:
t:
- filter: self_attn
value: [0.4, 0.6]
- filter: mlp
value: [0.6, 0.4]
- value: 0.5
dtype: bfloat16
tokenizer_source: base # Используем токенизатор DeepSeek для корректной работы <think>
Ждите новые модели из семейства Newton bot! И не забудьте поставить лайк модели! ;)
- Downloads last month
- 29
