Qwen3-8B-BTC-v4

基于 Qwen/Qwen3-8B 微调的 BTC 15分钟交易预测模型。

模型描述

该模型通过 LoRA 微调,学习从K线数据和技术指标中判断 BTC/USDT 15分钟级别的交易方向。

输出格式

{"action": "BUY_UP/BUY_DOWN/SKIP", "confidence": 0.58-0.75, "reasoning": "简要分析理由"}
  • BUY_UP: 看涨做多
  • BUY_DOWN: 看跌做空
  • SKIP: 信号不明确,跳过

训练细节

  • 微调方法: LoRA (rank=16, alpha=32, dropout=0.0)
  • 目标模块: q_proj, k_proj, v_proj, o_proj, gate_proj, up_proj, down_proj
  • 训练策略: Assistant-only loss masking (仅在助手回复上计算损失)
  • 训练数据: ~1500+ 样本,来自实盘交易数据和 Qdrant 向量数据库
  • 精度: fp16
  • 硬件: 2x NVIDIA V100 16GB

使用方式

vLLM (推荐生产环境)

python -m vllm.entrypoints.openai.api_server \
    --model ma-tnt/Qwen3-8B-BTC-v4 \
    --tensor-parallel-size 2 \
    --port 8001

Transformers

from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained("ma-tnt/Qwen3-8B-BTC-v4", torch_dtype="auto", device_map="auto")
tokenizer = AutoTokenizer.from_pretrained("ma-tnt/Qwen3-8B-BTC-v4")

messages = [
    {"role": "system", "content": "你是一个专业的加密货币交易分析师..."},
    {"role": "user", "content": "分析以下K线数据..."}
]

text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer([text], return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=512)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

免责声明

本模型仅供研究和学习用途。加密货币交易具有高风险,模型预测不构成投资建议。使用本模型进行实盘交易所产生的任何损失,作者不承担责任。

Downloads last month
4
Safetensors
Model size
8B params
Tensor type
F16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for ma-tnt/Qwen3-8B-BTC-v4

Finetuned
Qwen/Qwen3-8B
Adapter
(928)
this model