登录
注册
DZY.IO
搜索
仅搜索标题
作者:
仅搜索标题
作者:
DZY.IO
主页
Feeds
论坛列表
碎碎念
论坛
新帖
搜索论坛
下载中心
最新评论
搜索资源
会员
当前访客
个人空间信息
搜索个人空间信息
登录
注册
搜索
仅搜索标题
作者:
仅搜索标题
作者:
更多选项
切换宽度
分享此页面
分享此页面
分享
Facebook
Twitter
Reddit
Pinterest
Tumblr
WhatsApp
邮件
分享
链接
菜单
安装应用
安装
主页
搜索
禁用JavaScript。为了获得更好的体验,请在运行之前启用浏览器中的JavaScript。
您正在使用一款已经过时的浏览器!部分功能不能正常使用。
请尝试升级或使用
其他浏览器
。
搜索结果
原创
关于 使用charry studio 嫁接 火山引擎的一些问题
如果是使用 火山引擎创建的 我的应用 api接口地址为 https://ark.cn-beijing.volces.com/api/v3/bots/ 如果是使用 火山引擎的模型广场 api接口地址为 https://ark.cn-beijing.volces.com/api/v3/
wiwjxx
主题
2025/03/03
回复: 0
论坛:
『人工智能技术』
原创
推荐几个速度不错的大模型网站
推荐几个我觉得速度还不错的大模型网址 在线网站: 1、问小白:https://www.wenxiaobai.com/ 支持附件ocr 2、百度:https://chat.baidu.com/ 支持附件ocr 3、腾讯元宝: https://yuanbao.tencent.com/ 支持公共号搜索 3、askmanyai: 支持同时问多个大模型,同时返回结果,邀请链接https://dazi.co/login?i=c9096726
wiwjxx
主题
2025/02/23
回复: 0
论坛:
『人工智能技术』
原创
手机硅基api部署deepseek本体比app好用多了。
全程不需要用到电脑,只需要一个手机就搞定,chatbox谷歌商店就能下载,硅基流动直接注册,注册送价值14元的2000万token,够用几个月的,打开网页复制api密钥,打开chabox-设置-粘贴密钥,模型选deepseek-r1本体,一些具体设置比如想象力,精确度等你可以自己调整,默认也可以,保存就行。 1. 到硅基流动注册(我的邀请链接:https://cloud.siliconflow.cn/i/7JxrpChF ) 2. 点 API 密钥 获取一个 token 3. 下载一个chatbox或者cherry...
wiwjxx
主题
2025/02/10
回复: 0
论坛:
『人工智能技术』
原创
苹果电脑 5分钟教会你如何本地部署DeepSeek-R1,无需联网,全程干货,没有一句废话。
时间戳: 0:00 本地部署效果演示 0:19 部署步骤 0:49 安装 Ollama 1:38 下载 DeepSeek-R1 2:50 安装 Docker 3:37 安装 Open WebUI 5:04 切换 DeepSeek-R1 版本 5:37 点个赞吧! https://www.bilibili.com/video/BV1tjFVezEK5/?spm_id_from=333.1007.tianma.2-2-5.click&vd_source=721fa752189f789d631ab1b430c58fa7
wiwjxx
主题
2025/01/31
回复: 0
论坛:
『人工智能技术』
分享
1分钟教会你本地部署:Deepseek R1深度求索模型,操作简单,完全免费的保姆级教程实操。
三个租赁算力的平台 https://www.autodl.com https://www.compshare.cn/ https://onethingai.com/
wiwjxx
帖子 #5
2025/01/31
论坛:
『人工智能技术』
分享
1分钟教会你本地部署:Deepseek R1深度求索模型,操作简单,完全免费的保姆级教程实操。
"并且,最关键的一点,它不会结合之前的历史对话信息,它每次的回答只是针对本次提问,是完全孤立的,跟之前的提问和回答没有任何关联。" 世界上目前任何一个模型都没有这个能力。为啥我会这么说了,因为模型都是离线的产物,都是训练完就已经固化了。至于你感觉deepseek有这个意思,能有最新的知识,那是工程化应用层面的实现。举个最简单的例子,假如你也可以部署r1 600多b的那个,但你肯定复现不了在官网和你本地化部署的效果。
wiwjxx
帖子 #4
2025/01/31
论坛:
『人工智能技术』
分享
1分钟教会你本地部署:Deepseek R1深度求索模型,操作简单,完全免费的保姆级教程实操。
在v2看到了windyboy的帖子,好多年的队员,我基于我的认知说说我的看法。 1.ollama更多用在验证上,生产上用的不多; 2.显存的计算粗暴是模型尺寸*2 + 2g左右的浮动(推理),举例说明:deepseek-r1:32b,标准fp16小这个模型应该是32g的文件大小,deepseek做了fp8量化,那么应该是16g的文件大小,算到显存上应该是16 *2 + 2,ollama看到的20g的大小,是因为ollama在model那一块描述的很清楚。Q4_K_M量化,文件降到了8G左右。...
wiwjxx
帖子 #3
2025/01/31
论坛:
『人工智能技术』
分享
1分钟教会你本地部署:Deepseek R1深度求索模型,操作简单,完全免费的保姆级教程实操。
试了一下在我自己的机器上纯本地部署DeepSeek-R1,22G显存的2080Ti上竟然可以丝滑地跑起来32b参数的模型,而且输出速度良好。 32b模型,载入后实际使用了19.8G的显存。 14b的模型, 好像用了10G显存。 这意味着可以低成本的、免费、没有网络连接、离线本地(没有数据泄露和隐私风险,这点对很多特殊BM应用场景尤为重要)地获得 GPT-4级别的个人智能助理,那是真香啊... 这是可能颠覆AI竞争格局的科技成果。
wiwjxx
帖子 #2
2025/01/31
论坛:
『人工智能技术』
分享
1分钟教会你本地部署:Deepseek R1深度求索模型,操作简单,完全免费的保姆级教程实操。
1,188次观看 首播开始于 23小时之前 #deepseek #科技 #人工智能 一、视频概括 ①00:00 - 01:27 前言 ②01:27 - 01:56 第一步:需要安装Ollama ③01:56 - 02:23 第二步:打开电脑的命令提示符 ④02:23 - 03:48 第三步:下载Deepseek模型并运行 ⑤03:48 - 04:41 第四步:下载Page Assist来装饰deepseek本地部署界面 ⑥04:41 - 05:02 尾言感慨 二、所用到的工具网址 ①Ollama:https://ollama.com/ ②Page...
wiwjxx
主题
2025/01/31
回复: 4
论坛:
『人工智能技术』
分享
选品接口-有米云飞瓜
选品接口 有米云 飞瓜 罗盘
wiwjxx
主题
2024/09/05
回复: 0
论坛:
『接口技术交流』
分享
物流接口对接-猪猪物流
https://yun.zhuzhufanli.com/
wiwjxx
主题
2024/09/05
回复: 0
论坛:
『接口技术交流』
分享
Rope软件AI单图变换视频合成最新蓝宝石版,支持N卡/AMD卡/CPU,免安装
下载后解压即可使用,一键整合包,无需配置任何环境 视频强烈建议下载此软件 此工具带遮罩功能,可替换任何图片和视频,把自己的所要替换的素材放到对应文件夹即可 此软件是rope工具蓝宝石版本,一次下载,永久免费使用 电脑配置要求: 1、软件解压就能用,显卡需要英伟达显卡,目前测试不开高清修复情况下显卡1050 以上没问题; 2、仅支持win10、win11; 如果电脑是AMD显卡RX550以上,请下载AMD显卡版本 如果电脑是没有独立显卡或者显卡不达标,可以下载cpu版本 https://pan.baidu.com/s/1pVsVB43oMS3W8ZWeBm8Kug 36W9
wiwjxx
主题
2024/04/26
回复: 0
论坛:
『人工智能技术』
分享
BuiltWith分析你提供的网址背后的前后端技术栈
这个网站可以分析你提供的网址背后的前后端技术栈。 https://builtwith.com/
wiwjxx
主题
2024/03/26
回复: 0
论坛:
『网闻信息专区』
分享
iconfont-阿里巴巴提供的矢量图标库,可以免费使用
iconfont-阿里巴巴提供的矢量图标库,可以免费使用 https://www.iconfont.cn/
wiwjxx
主题
2024/03/26
回复: 0
论坛:
『网闻信息专区』
分享
老游戏在线玩
自上一次介绍的在线Dos游戏后,作者又放出了其他平台的老游戏在线玩。 https://zaixianwan.app/
wiwjxx
主题
2024/03/26
回复: 0
论坛:
『网闻信息专区』
主页
搜索
顶部
底部
菜单