搜索结果

  1. wiwjxx

    原创 🧬 灵犀 (Lingxi):基于人体仿生学的次世代 AI 智能体架构

    🧬 灵犀 (Lingxi):基于人体仿生学的次世代 AI 智能体架构 1. 核心设计理念 (Core Philosophy) 灵犀是构建在 Dify (编排中枢) 与 Mem0 (海马体) 之上的高级 AI Agent。它突破了传统 LLM “聊完即忘”的限制,引入了分层思考、记忆闭环和意图仲裁机制,旨在打造一个越用越懂你、具备执行力的私人数字孪生。 2. 仿生架构图谱 (Bionic Architecture) 灵犀的运行逻辑模拟了人类大脑处理信息的完整链路: Code snippet graph TD User(用户输入) --> Thalamus{丘脑...
  2. wiwjxx

    原创 让你的智能体了解你的服务器命令

    群辉系统ssh获取信息的命令 vi collect.sh 输入 dG (这是 vi 的命令:删除全部内容) 按 i 进入插入模式,粘贴下面的新代码。 :wq 保存退出。 bash collect.sh 运行。 #!/bin/bash # Synology DSM Optimized V2 - Asset Collector # Output format: Markdown echo "### 节点 ID: \`$(hostname)\`" echo "- **采集时间**: $(date '+%Y-%m-%d %H:%M:%S')" # 1. System Info echo...
  3. wiwjxx

    原创 让你的智能体了解你的服务器命令

    linux服务器获取信息的命令 #!/bin/bash # Server & Docker Asset Collector for Dify RAG # Output format: Markdown echo "### 节点 ID: \`$(hostname)\`" echo "- **采集时间**: $(date '+%Y-%m-%d %H:%M:%S')" # 1. System Info echo "- **系统概况**:" echo " - **OS**: $(grep -E "PRETTY_NAME" /etc/os-release | cut -d'"'...
  4. wiwjxx

    原创 告别 Auth0 卡顿!手把手教你部署 Casdoor:最适合国人的开源身份认证中心

    告别 Auth0 卡顿!手把手教你部署 Casdoor:最适合国人的开源身份认证中心(完美适配 LobeChat)** --- ### 👋 前言:为什么我们需要 Casdoor? 如果你正在自托管 LobeChat、NextChat 或者其他现代 Web 应用,你一定遇到过“鉴权”的烦恼。 官方默认推荐的 Auth0 虽然强大,但在国内环境简直是“水土不服”: 1. **访问慢**:登录界面加载半天,体验极差。 2. **不仅是墙的问题**:Auth0 的免费额度虽然够用,但数据都在海外。 3. **UI 英文**:对普通用户不够友好。...
  5. wiwjxx

    原创 人工智能API中转服务市场深度评估报告

    第一章 中国AI API中转市场的地缘技术背景与经济逻辑 在2024至2025年的技术周期中,大语言模型(LLM)已成为全球软件开发的核心驱动力。然而,对于中国大陆的开发者与企业而言,获取全球顶尖模型(如OpenAI的GPT-4系列、Anthropic的Claude 3.5系列以及Google的Gemini系列)的算力资源,面临着严峻的地缘政治与金融支付双重壁垒。这种供需错配催生了一个庞大且复杂的“API中转”(API...
  6. wiwjxx

    原创 基于 Dify 与 Mem0 架构的私人助手持久化存储与混合检索系统研究报告

    基于 Dify 与 Mem0 架构的私人助手持久化存储与混合检索系统研究报告 在大语言模型(LLM)驱动的智能体架构中,如何有效地处理长短期记忆的存储与检索,已成为决定助手“智能化”程度的核心技术挑战。传统的大模型应用多依赖于固定长度的上下文窗口,这种“无状态”的交易模式会导致信息随对话深入而迅速衰减,最终引发“中间信息丢失”(Lost in the Middle)现象,使模型在长序列任务中表现出注意力下降和逻辑断裂 1。为了构建真正具备“人类大脑理性延伸”特性的数字孪生助手,引入专门的记忆层(Memory Layer)如 Mem0,并结合编排工具 Dify 与高性能国产模型...
  7. wiwjxx

    原创 短视频去中文字幕 + 自动配音(多语言)”的全自动工作流, AI 视频本地化(Video Localization)

    要做成“短视频去中文字幕 + 自动配音(多语言)”的全自动工作流,这属于 AI 视频本地化(Video Localization) 的范畴。 这需要两个并行的技术链路: 视觉处理(Visual):OCR 识别字幕位置 -> 视频修补(Inpainting)遮盖字幕。 音频处理(Audio):提取音频 -> 语音转文字(ASR)-> 翻译 -> 语音合成(TTS)-> 音画对齐(或唇形同步)。 根据你的技术背景(熟悉 Dify/n8n/Docker),我有三个梯度的方案推荐给你: 方案一:开源/本地部署(最省钱,硬核) 如果你有 GPU 服务器(比如你之前的搬瓦工或者本地...
  8. wiwjxx

    原创 PVE 虚拟化集群 + VS Code Remote部署方案

    按照你的思路,我帮你规划了一套**“猛兽级”**的架构方案,能让你的员工爽到飞起。 🚀 核心架构:PVE 虚拟化集群 + VS Code Remote 不要用群晖自带的虚拟机(性能损耗大),既然配置要猛,直接上 Proxmox VE (PVE) 或 ESXi。 1. 为什么这个方案比 LobeChat/Dify 好? 完整的 IDE 能力:LobeChat 只是聊天窗口。VS Code 是全功能的:代码高亮、调试、Git 管理、再加上 Roo Code 这种 Agent,它是“带着大脑的代码编辑器”。 算力集中:员工的笔记本可以是几千块的轻薄本(甚至...
  9. wiwjxx

    原创 2025年最新Gemini 3 Pro国内使用教程

    https://github.com/anyofai/gemini-pro?tab=readme-ov-file
  10. wiwjxx

    原创 open-webui docker版升级教程

    连接上ssh 然后 sudo -i 进入root cd /volume1/open-webui docker compose pull open-webui docker compose up -d open-webui 直接无损升级成功
  11. wiwjxx

    原创 关于conda环境的配置,看这一篇就够了

    https://www.bilibili.com/opus/471897694720583571?from=search&spm_id_from=333.337.0.0
  12. wiwjxx

    分享 10分钟讲清楚Milvus 以图搜图、以图搜视频

    https://www.bilibili.com/video/BV18k4y1r7j9/
  13. wiwjxx

    原创 关于 使用charry studio 嫁接 火山引擎的一些问题

    如果是使用 火山引擎创建的 我的应用 api接口地址为 https://ark.cn-beijing.volces.com/api/v3/bots/ 如果是使用 火山引擎的模型广场 api接口地址为 https://ark.cn-beijing.volces.com/api/v3/
  14. wiwjxx

    原创 推荐几个速度不错的大模型网站

    推荐几个我觉得速度还不错的大模型网址 在线网站: 1、问小白:https://www.wenxiaobai.com/ 支持附件ocr 2、百度:https://chat.baidu.com/ 支持附件ocr 3、腾讯元宝: https://yuanbao.tencent.com/ 支持公共号搜索 3、askmanyai: 支持同时问多个大模型,同时返回结果,邀请链接https://dazi.co/login?i=c9096726
  15. wiwjxx

    原创 手机硅基api部署deepseek本体比app好用多了。

    全程不需要用到电脑,只需要一个手机就搞定,chatbox谷歌商店就能下载,硅基流动直接注册,注册送价值14元的2000万token,够用几个月的,打开网页复制api密钥,打开chabox-设置-粘贴密钥,模型选deepseek-r1本体,一些具体设置比如想象力,精确度等你可以自己调整,默认也可以,保存就行。 1. 到硅基流动注册(我的邀请链接:https://cloud.siliconflow.cn/i/7JxrpChF ) 2. 点 API 密钥 获取一个 token 3. 下载一个chatbox或者cherry...
  16. wiwjxx

    原创 苹果电脑 5分钟教会你如何本地部署DeepSeek-R1,无需联网,全程干货,没有一句废话。

    时间戳: 0:00 本地部署效果演示 0:19 部署步骤 0:49 安装 Ollama 1:38 下载 DeepSeek-R1 2:50 安装 Docker 3:37 安装 Open WebUI 5:04 切换 DeepSeek-R1 版本 5:37 点个赞吧! https://www.bilibili.com/video/BV1tjFVezEK5/?spm_id_from=333.1007.tianma.2-2-5.click&vd_source=721fa752189f789d631ab1b430c58fa7
  17. wiwjxx

    分享 1分钟教会你本地部署:Deepseek R1深度求索模型,操作简单,完全免费的保姆级教程实操。

    三个租赁算力的平台 https://www.autodl.com https://www.compshare.cn/ https://onethingai.com/
  18. wiwjxx

    分享 1分钟教会你本地部署:Deepseek R1深度求索模型,操作简单,完全免费的保姆级教程实操。

    "并且,最关键的一点,它不会结合之前的历史对话信息,它每次的回答只是针对本次提问,是完全孤立的,跟之前的提问和回答没有任何关联。" 世界上目前任何一个模型都没有这个能力。为啥我会这么说了,因为模型都是离线的产物,都是训练完就已经固化了。至于你感觉deepseek有这个意思,能有最新的知识,那是工程化应用层面的实现。举个最简单的例子,假如你也可以部署r1 600多b的那个,但你肯定复现不了在官网和你本地化部署的效果。
  19. wiwjxx

    分享 1分钟教会你本地部署:Deepseek R1深度求索模型,操作简单,完全免费的保姆级教程实操。

    在v2看到了windyboy的帖子,好多年的队员,我基于我的认知说说我的看法。 1.ollama更多用在验证上,生产上用的不多; 2.显存的计算粗暴是模型尺寸*2 + 2g左右的浮动(推理),举例说明:deepseek-r1:32b,标准fp16小这个模型应该是32g的文件大小,deepseek做了fp8量化,那么应该是16g的文件大小,算到显存上应该是16 *2 + 2,ollama看到的20g的大小,是因为ollama在model那一块描述的很清楚。Q4_K_M量化,文件降到了8G左右。...
  20. wiwjxx

    分享 1分钟教会你本地部署:Deepseek R1深度求索模型,操作简单,完全免费的保姆级教程实操。

    试了一下在我自己的机器上纯本地部署DeepSeek-R1,22G显存的2080Ti上竟然可以丝滑地跑起来32b参数的模型,而且输出速度良好。 32b模型,载入后实际使用了19.8G的显存。 14b的模型, 好像用了10G显存。 这意味着可以低成本的、免费、没有网络连接、离线本地(没有数据泄露和隐私风险,这点对很多特殊BM应用场景尤为重要)地获得 GPT-4级别的个人智能助理,那是真香啊... 这是可能颠覆AI竞争格局的科技成果。