WeClone从聊天记录创造数字分身的一站式解决方案
WeClone是一款从聊天记录创造数字分身的一站式解决方案。它基于微信、QQ、Telegram等聊天记录,使用大模型微调技术,让你的AI分身不仅拥有你的语气和表达风格,还能与你的社交平台无缝对接,让它成为你的另一种存在。

通过WeClone,你可以:
• 用自己的聊天记录训练AI,让它更符合你的表达习惯。 • 绑定至多个社交平台,实现数字分身的实际应用。 • 采用隐私信息过滤和本地化微调部署,确保数据安全。
核心功能特点
1. 个性化微调:利用微信等聊天记录对LLM(大语言模型)进行微调,让AI拥有你的独特表达方式。 2. 多平台绑定:支持微信、QQ、Telegram、企微、飞书等平台,让你的数字分身随时随地与你的社交圈互动。 3. 隐私保护:提供数据过滤功能,自动去除敏感信息,并允许用户自定义禁用词库,确保数据安全。 4. 轻量级部署:采用LoRA等优化微调方式,降低显存占用,使得普通设备也能运行训练。 5. 智能数据预处理:自动去除手机号、身份证号、网址等隐私信息,并支持清洗聊天数据,提高训练质量。
如何快速开始?
1. 环境搭建
• 安装CUDA(版本12.4及以上),确保PyTorch可以正确使用显卡加速。 • 使用uv进行依赖安装,这是一个快速的Python环境管理工具: git clone https://github.com/xming521/WeClone.git cd WeClone uv venv .venv --python=3.10 source .venv/bin/activate # Windows执行 .venv\Scripts\activate uv pip install --group main -e .
• 如需使用最新的LLaMA Factory模型,请执行: uv pip install --upgrade git+https://github.com/hiyouga/LLaMA-Factory.git
2. 数据准备
• 使用PyWxDump导出微信聊天记录(建议从手机备份至电脑,数据量更完整)。 • 选择CSV格式导出后,放入dataset/csv目录。
3. 数据预处理
• 运行以下命令对数据进行清洗和格式调整: weclone-cli make-dataset
4. 微调模型
• 根据数据集调整settings.jsonc配置,并使用: weclone-cli train-sft
• 如果是多卡训练,需安装deepspeed并执行: deepspeed --num_gpus=使用显卡数量 weclone/train/train_sft.py
5. 使用AI分身
• 可使用以下命令进行聊天测试: weclone-cli webchat-demo weclone-cli server
• 绑定至AstrBot,实现AI分身在微信、QQ等平台的自动回复。
结语
WeClone让打造一个独具个性的数字分身成为可能,让AI真正融入你的社交世界。无论是个人应用还是实验探索,WeClone都能提供一套完整的解决方案,让你的AI更有“人味”。试试吧,让你的数字分身真正成为你的另一种存在!
关注公众号:拾黑(shiheibook)了解更多
赞助链接:
关注数据与安全,洞悉企业级服务市场:https://www.ijiandao.com/
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/
关注网络尖刀微信公众号随时掌握互联网精彩
- 火狐浏览器Firefox 141.0正式发布!带来AI标签组、终于支持WebGPU
- likeadmin开源、免费、高效全能的后端快速开发框架
- 腾讯推出智能工作台ima.copilot
- 英镑兑换人民币汇率2024年9月29日
- Ignite China | 两周后,来这里抢先看AI先行者们创造新增长
- 微软推出Windows App:可使用iPhone/iPad远程连接PC
- 美元兑换人民币汇率2023年1月27日
- 矿山、电网、港口为何成为5G应用“优等生”?
- 美国联邦政府与州政府将合作加快开展海上风电建设
- 英伟达收购 ARM 进程再度受阻!400 亿美元交易要黄?
- 好用的软件更新了一个没人用的功能
- 解锁数字密码,了解统信软件的2020



微信扫码关注公众号