Newton Bot 3

Newton bot1

Developed by Kolyadual

ОписаниеКлючевые ОсобенностиИспользование


Описание модели

Newton Bot 3 — это высокопроизводительная модель нового поколения из семейства Newton bot, созданная буквально для всего! Основанная на мощном фундаменте Qwen и дистиллированная с использованием методик DeepSeek-R1, также дообученая на датасете Gemini от TeichAI. Нейросеть сочетает в себе глубокие знания и умение строить многоступенчатые цепочки рассуждений (Chain-of-Thought).

Newton bot 3 text mini - модель Newton bot 3, оптимизированная для работы на компьютерах, генерации текста, кодинга и всего что связано с текстом.

Ключевые особенности:

  • Продвинутый Reasoning: Модель сначала "думает", выстраивая логическую структуру ответа, а затем выдает результат.
  • Мастер Кодинга: Оптимизирована для написания сложного кода, отладки и архитектурного планирования.
  • Математический интеллект: Способна решать задачи уровня олимпиад и высшей математики.
  • Мультиязычность: Полная поддержка русского и английского языков с учетом культурного контекста.
  • Рецепты: Огромная база данных кулинарных рецептов
  • Профи-функционал: 8B параметров - хорошие значения для общения с нейросетью и познания чего-либо нового! По максимуму точная модель, дообученая на лидирующих поделях таких как DeepSeek, Gemini 3 pro, Claude 4.5 дает максимально точный ответ в рамках 2025-2026 годов (и раньше).

Как использовать

Вы можете запустить Newton Bot 3 локально, используя библиотеку transformers:

from transformers import AutoModelForCausalLM, AutoTokenizer

model_id = "Kolyadual/Newton-bot-3-text-mini-8B" # Или же путь к папке с моделью

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype="auto",
    device_map="auto"
)

prompt = "Реши уравнение Шрёдингера для частицы в бесконечной потенциальной яме."
messages = [{"role": "user", "content": prompt}]

inputs = tokenizer.apply_chat_template(messages, add_generation_prompt=True, return_tensors="pt").to("cuda")
outputs = model.generate(inputs, max_new_tokens=1024)

print(tokenizer.decode(outputs[0], skip_special_tokens=True))

Merge Details

Merge Method

This model was merged using the SLERP merge method.

Models Merged

The following models were included in the merge:

  • Qwen
  • Gemini
  • DeepSeek

Configuration

The following YAML configuration was used to produce this model:

slices:
  - sources:
      - model: DeepSeek-qwen-moe
        layer_range: [0, 36]
      - model: Gemini
        layer_range: [0, 36]
      - model: Claude
        layer_range:  [0, 36]
merge_method: slerp
base_model: DeepSeek-qwen-moe
parameters:
  t:
    - filter: self_attn
      value: [0.4, 0.6]
    - filter: mlp
      value: [0.6, 0.4]
    - value: 0.5
dtype: bfloat16
tokenizer_source: base # Используем токенизатор DeepSeek для корректной работы <think>

Ждите новые модели из семейства Newton bot! И не забудьте поставить лайк модели! ;)

Downloads last month
29
Safetensors
Model size
8B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 1 Ask for provider support

Model tree for Kolyadual/Newton-bot-3-text-mini-8B

Base model

Qwen/Qwen3-8B-Base
Finetuned
Qwen/Qwen3-8B
Finetuned
(912)
this model
Quantizations
2 models

Datasets used to train Kolyadual/Newton-bot-3-text-mini-8B