搜索结果

  1. wiwjxx

    原创 关于 使用charry studio 嫁接 火山引擎的一些问题

    如果是使用 火山引擎创建的 我的应用 api接口地址为 https://ark.cn-beijing.volces.com/api/v3/bots/ 如果是使用 火山引擎的模型广场 api接口地址为 https://ark.cn-beijing.volces.com/api/v3/
  2. wiwjxx

    原创 推荐几个速度不错的大模型网站

    推荐几个我觉得速度还不错的大模型网址 在线网站: 1、问小白:https://www.wenxiaobai.com/ 支持附件ocr 2、百度:https://chat.baidu.com/ 支持附件ocr 3、腾讯元宝: https://yuanbao.tencent.com/ 支持公共号搜索 3、askmanyai: 支持同时问多个大模型,同时返回结果,邀请链接https://dazi.co/login?i=c9096726
  3. wiwjxx

    原创 手机硅基api部署deepseek本体比app好用多了。

    全程不需要用到电脑,只需要一个手机就搞定,chatbox谷歌商店就能下载,硅基流动直接注册,注册送价值14元的2000万token,够用几个月的,打开网页复制api密钥,打开chabox-设置-粘贴密钥,模型选deepseek-r1本体,一些具体设置比如想象力,精确度等你可以自己调整,默认也可以,保存就行。 1. 到硅基流动注册(我的邀请链接:https://cloud.siliconflow.cn/i/7JxrpChF ) 2. 点 API 密钥 获取一个 token 3. 下载一个chatbox或者cherry...
  4. wiwjxx

    原创 苹果电脑 5分钟教会你如何本地部署DeepSeek-R1,无需联网,全程干货,没有一句废话。

    时间戳: 0:00 本地部署效果演示 0:19 部署步骤 0:49 安装 Ollama 1:38 下载 DeepSeek-R1 2:50 安装 Docker 3:37 安装 Open WebUI 5:04 切换 DeepSeek-R1 版本 5:37 点个赞吧! https://www.bilibili.com/video/BV1tjFVezEK5/?spm_id_from=333.1007.tianma.2-2-5.click&vd_source=721fa752189f789d631ab1b430c58fa7
  5. wiwjxx

    分享 1分钟教会你本地部署:Deepseek R1深度求索模型,操作简单,完全免费的保姆级教程实操。

    三个租赁算力的平台 https://www.autodl.com https://www.compshare.cn/ https://onethingai.com/
  6. wiwjxx

    分享 1分钟教会你本地部署:Deepseek R1深度求索模型,操作简单,完全免费的保姆级教程实操。

    "并且,最关键的一点,它不会结合之前的历史对话信息,它每次的回答只是针对本次提问,是完全孤立的,跟之前的提问和回答没有任何关联。" 世界上目前任何一个模型都没有这个能力。为啥我会这么说了,因为模型都是离线的产物,都是训练完就已经固化了。至于你感觉deepseek有这个意思,能有最新的知识,那是工程化应用层面的实现。举个最简单的例子,假如你也可以部署r1 600多b的那个,但你肯定复现不了在官网和你本地化部署的效果。
  7. wiwjxx

    分享 1分钟教会你本地部署:Deepseek R1深度求索模型,操作简单,完全免费的保姆级教程实操。

    在v2看到了windyboy的帖子,好多年的队员,我基于我的认知说说我的看法。 1.ollama更多用在验证上,生产上用的不多; 2.显存的计算粗暴是模型尺寸*2 + 2g左右的浮动(推理),举例说明:deepseek-r1:32b,标准fp16小这个模型应该是32g的文件大小,deepseek做了fp8量化,那么应该是16g的文件大小,算到显存上应该是16 *2 + 2,ollama看到的20g的大小,是因为ollama在model那一块描述的很清楚。Q4_K_M量化,文件降到了8G左右。...
  8. wiwjxx

    分享 1分钟教会你本地部署:Deepseek R1深度求索模型,操作简单,完全免费的保姆级教程实操。

    试了一下在我自己的机器上纯本地部署DeepSeek-R1,22G显存的2080Ti上竟然可以丝滑地跑起来32b参数的模型,而且输出速度良好。 32b模型,载入后实际使用了19.8G的显存。 14b的模型, 好像用了10G显存。 这意味着可以低成本的、免费、没有网络连接、离线本地(没有数据泄露和隐私风险,这点对很多特殊BM应用场景尤为重要)地获得 GPT-4级别的个人智能助理,那是真香啊... 这是可能颠覆AI竞争格局的科技成果。
  9. wiwjxx

    分享 1分钟教会你本地部署:Deepseek R1深度求索模型,操作简单,完全免费的保姆级教程实操。

    1,188次观看 首播开始于 23小时之前 #deepseek #科技 #人工智能 一、视频概括 ①00:00 - 01:27 前言 ②01:27 - 01:56 第一步:需要安装Ollama ③01:56 - 02:23 第二步:打开电脑的命令提示符 ④02:23 - 03:48 第三步:下载Deepseek模型并运行 ⑤03:48 - 04:41 第四步:下载Page Assist来装饰deepseek本地部署界面 ⑥04:41 - 05:02 尾言感慨 二、所用到的工具网址 ①Ollama:https://ollama.com/ ②Page...
  10. wiwjxx

    分享 选品接口-有米云飞瓜

    选品接口 有米云 飞瓜 罗盘
  11. wiwjxx

    分享 物流接口对接-猪猪物流

    https://yun.zhuzhufanli.com/
  12. wiwjxx

    分享 Rope软件AI单图变换视频合成最新蓝宝石版,支持N卡/AMD卡/CPU,免安装

    下载后解压即可使用,一键整合包,无需配置任何环境 视频强烈建议下载此软件 此工具带遮罩功能,可替换任何图片和视频,把自己的所要替换的素材放到对应文件夹即可 此软件是rope工具蓝宝石版本,一次下载,永久免费使用 电脑配置要求: 1、软件解压就能用,显卡需要英伟达显卡,目前测试不开高清修复情况下显卡1050 以上没问题; 2、仅支持win10、win11; 如果电脑是AMD显卡RX550以上,请下载AMD显卡版本 如果电脑是没有独立显卡或者显卡不达标,可以下载cpu版本 https://pan.baidu.com/s/1pVsVB43oMS3W8ZWeBm8Kug 36W9
  13. wiwjxx

    分享 BuiltWith分析你提供的网址背后的前后端技术栈

    这个网站可以分析你提供的网址背后的前后端技术栈。 https://builtwith.com/
  14. wiwjxx

    分享 iconfont-阿里巴巴提供的矢量图标库,可以免费使用

    iconfont-阿里巴巴提供的矢量图标库,可以免费使用 https://www.iconfont.cn/
  15. wiwjxx

    分享 老游戏在线玩

    自上一次介绍的在线Dos游戏后,作者又放出了其他平台的老游戏在线玩。 https://zaixianwan.app/