Qwen3-8B-BTC-v4
基于 Qwen/Qwen3-8B 微调的 BTC 15分钟交易预测模型。
模型描述
该模型通过 LoRA 微调,学习从K线数据和技术指标中判断 BTC/USDT 15分钟级别的交易方向。
输出格式
{"action": "BUY_UP/BUY_DOWN/SKIP", "confidence": 0.58-0.75, "reasoning": "简要分析理由"}
- BUY_UP: 看涨做多
- BUY_DOWN: 看跌做空
- SKIP: 信号不明确,跳过
训练细节
- 微调方法: LoRA (rank=16, alpha=32, dropout=0.0)
- 目标模块: q_proj, k_proj, v_proj, o_proj, gate_proj, up_proj, down_proj
- 训练策略: Assistant-only loss masking (仅在助手回复上计算损失)
- 训练数据: ~1500+ 样本,来自实盘交易数据和 Qdrant 向量数据库
- 精度: fp16
- 硬件: 2x NVIDIA V100 16GB
使用方式
vLLM (推荐生产环境)
python -m vllm.entrypoints.openai.api_server \
--model ma-tnt/Qwen3-8B-BTC-v4 \
--tensor-parallel-size 2 \
--port 8001
Transformers
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("ma-tnt/Qwen3-8B-BTC-v4", torch_dtype="auto", device_map="auto")
tokenizer = AutoTokenizer.from_pretrained("ma-tnt/Qwen3-8B-BTC-v4")
messages = [
{"role": "system", "content": "你是一个专业的加密货币交易分析师..."},
{"role": "user", "content": "分析以下K线数据..."}
]
text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer([text], return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=512)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
免责声明
本模型仅供研究和学习用途。加密货币交易具有高风险,模型预测不构成投资建议。使用本模型进行实盘交易所产生的任何损失,作者不承担责任。
- Downloads last month
- 4