首页
友情链接
全景相册
随机剧照
本站声明
壁纸
Search
1
九寨沟
2,276 阅读
2
台湾-景(阿里山,101,故宫,日月潭)
2,184 阅读
3
三款离线OCR对比(供下载)
2,176 阅读
4
精明鼠多功能寻线王 NF-802 拆解
1,610 阅读
5
我想出去浪(多图杀猫,39张)
1,509 阅读
摄影类
茶余饭后
软件类
登录
Search
标签搜索
园博园
AI
锦绣园
台湾
大梅沙
沙井
甘坑
博物馆
开源
一个公园
猫
文和友
大沙河
荔枝公园
万景楼
华强北
懒人包
胶片
相机
自动
傻木摄影
累计撰写
451
篇文章
累计收到
72
条评论
首页
栏目
摄影类
茶余饭后
软件类
页面
友情链接
全景相册
随机剧照
本站声明
壁纸
搜索到
170
篇与
茶余饭后
的结果
2024-05-17
第一次吃青芒
![好吃的.jpg](/usr/uploads/2024/05/971268620.jpg) 第一次吃青芒 前几天买了一份果切 里面夹杂着三根青绿色切成条状的水果 不认识,叉起来咬了一口 嗯 很特别的味道 不是很甜 也不是很酸 脆的 以前从没吃过 一口气把三条都吃完了 心想着,这一定是了不得的水果 不然怎么只给这么少分量 过了几天 预见一水果店 看见有果切 买了一份,问了一青绿色块状水果 曰:这是青芒 ..... 然来我心里装着的那个了不得的水果是青芒 吃几口到也挺不错 一个就吃不完了 意犹未尽才是最好的 不然吃饱了容易撑着
2024年05月17日
41 阅读
0 评论
1 点赞
我的阿勒泰
2024年05月13日
162 阅读
0 评论
0 点赞
2024-05-13
美如画 想去 ![我的阿勒泰1.jpg](/usr/uploads/2024/05/791253988.jpg) ![我的阿勒泰2.jpg](/usr/uploads/2024/05/34012938.jpg) ![我的阿勒泰3.jpg](/usr/uploads/2024/05/1514017800.jpg) ![我的阿勒泰4.jpg](/usr/uploads/2024/05/4217871452.jpg) ![我的阿勒泰5.jpg](/usr/uploads/2024/05/3878336540.jpg) ![我的阿勒泰6.jpg](/usr/uploads/2024/05/1985838489.jpg) ![我的阿勒泰7.jpg](/usr/uploads/2024/05/3825976372.jpg) ![我的阿勒泰8.jpg](/usr/uploads/2024/05/661902559.jpg) ![我的阿勒泰9.jpg](/usr/uploads/2024/05/1595252962.jpg) ![我的阿勒泰10.jpg](/usr/uploads/2024/05/1003811635.jpg) ![我的阿勒泰11.jpg](/usr/uploads/2024/05/955195622.jpg) ![我的阿勒泰12.jpg](/usr/uploads/2024/05/3784325886.jpg)
什么是馍?什么是型?什么是大馍型?AI大模型解惑
2024年05月11日
61 阅读
0 评论
0 点赞
2024-05-11
什么是馍?什么是型?什么是大馍型?AI大模型解惑 馍就是吃的馍馍 ![1.jpeg](/usr/uploads/2024/05/144296800.jpeg) 型就是很有型的人做馍馍 例如下图中的男馍 意思是一个很有型的男人在做馍 ![2.jpg](/usr/uploads/2024/05/2963985886.jpg) 那么AI大模型又是啥玩意? 我们分开来说 AI是什么? 人工智能(Artificial Intelligence,简称AI) 是一门研究如何使计算机能够模拟和执行人类智能任务的科学和技术领域。 它致力于开发能够感知、理解、学习、推理、决策和与人类进行交互的智能系统。 人工智能的背景可以追溯到上世纪50年代,最初集中在基于规则的推理和专家系统的开发上。 随着计算机技术和算法的进步,尤其是机器学习和深度学习的兴起,人工智能开始迎来爆发式的发展。 大模型是什么? 大模型(Large Model),也称基础模型或Foundation Model,是指具有大量参数和复杂结构的机器学习模型。 它们能够处理海量数据、完成各种复杂的任务,如自然语言处理、计算机视觉、语音识别等。 大模型通过大量的数据和参数进行训练,以生成人类类似的文本或回答自然语言的问题。 超大模型是大模型的一个子集,它们的参数量远超过大模型。 大模型的种类 大模型按照输入数据类型和应用领域主要可以分为以下几类: 语言大模型(NLP):在自然语言处理领域中使用的大模型,如GPT系列、Bard、文心一言等。 视觉大模型(CV):在计算机视觉领域中使用的大模型,如VIT系列、文心UFO、华为盘古CV等。 多模态大模型:能够处理多种不同类型数据的大模型,如DALL-E、悟空画画等。 通用大模型 L0:可在多个领域和任务上通用的大模型,具有强大的泛化能力。 行业大模型 L1:针对特定行业或领域的大模型,相当于AI成为“行业专家”。 垂直大模型 L2:针对特定任务或场景的大模型,提高在该任务上的性能和效果。 适合本地部署的大模型及电脑配置要求 本地部署大型AI模型对电脑配置有一定要求,尤其是对GPU的显存和内存有较高需求。 以下是一些适合本地部署的大模型及基础配置推荐: 3B/7B/13B大模型:适合个人本地部署,对配置要求适中。 数字后面的B意思是10亿,3B则表示这个模型有大约30亿参数 一般推荐7B开始,小于7B的智商着急,大于7B的硬件资源消耗着急 我自己电脑4060 8gb显存,7B RWKV模型巨卡无比 CPU:10代I3或以上均可 AI时代的CPU就是打酱油的,可以理解为有个cpu就行 内存:16GB - 128GB,一般是显存的两倍左右。目前16gb远不能满足AI使用,基础配置建议32gb起步 我电脑32gb内存,转换7B模型时实际需要40gb内存,所以不要在说真的需要这么大内存吗,32gb已经是极低起步要求了 硬盘:M.2 SSD 512GB 如今各种模型层出不穷,动不动十几GB甚至几十GB,磁盘不建议小于512,有条件的建议直接2TB起步 GPU:至少4060 16GB显存,若要微调则至少应该配置4090 24gb 这个显卡还不能做的全参微调,仅能够支持极为有限的微调 大模型的本地部署可以为研究人员和开发者提供强大的工具,但同时也带来了对硬件配置的挑战。 合理规划硬件资源、关注数据质量、保证系统稳定性是成功部署的关键。 随着技术的不断进步,未来可能会有更多高效且易于部署的大模型出现,进一步推动AI技术的发展和应用。 目前我自己常用的模型是Meta Liama3 中文量化版 Llama-3-8B-Q4-K-M.gguf 模型参数 8B 量化参数 Q4-K-M 模型体积 4.8gb 显存消耗 6gb 每秒吐字 8-12 Tok/s https://hf-mirror.com/ 模型可以在这个站点自己搜索 关键词加上gguf [https://hf-mirror.com/QuantFactory/Meta-Llama-3-8B-GGUF/tree/main](https://hf-mirror.com/QuantFactory/Meta-Llama-3-8B-GGUF/tree/main) 例如我下载的是这个 ![模型下载](/usr/uploads/2024/05/1423608308.jpg) 上图中框起来这么多,实际都是同一个模型 只是量化参数不一样 根据自己电脑配置下载 原则上模型体积越大,质量越好 但是体积越大,对资源要求越高 例如我电脑显卡8gb显存,除去系统占用1gb 下载5gb左右的最合适 再小,质量太低 再大,明显不流畅 例如我下载了llama3 70b Q1量化版本,模型体积不到16gb 一样可以跑起来 两秒钟回答一个字 有毛线用吗 严重影响体验 ![量化.jpg](/usr/uploads/2024/05/3085507012.jpg) 以下是推荐加载gguf模型的工具,都是免环境配置,在windows上双击运行之类的 三个都是英文界面 LM Studio koboldcpp llamafile 另外在推荐一个国产的 RWKV 这个就是傻瓜式,有详细使用说明,中文,免费,开源 RWKV Runner https://github.com/josStorer/RWKV-Runner 或者同源的 ai00_server https://github.com/Ai00-X/ai00_server
2024-04-28
离线AI能蠢到什么地步?
离线AI能蠢到什么地步? 最近几天各家AI大模型你家唱罢我登场 那叫一个忙的不亦乐乎 先是Meta Liama3 系列 从8b到70b 着实火了一把 从一发布开始的当天晚上就有网友放出中文量化版 整天说被限制了买不到高端显卡 给我的感觉就是这届网友真有钱 这位大佬指定家里有矿,A800,还是4张,每张80GB显存,羡慕嫉妒恨啊 ![12.png](/usr/uploads/2024/04/796114553.png) 跟着微软的phi3 mini3b模型也发布了 模型太小,基本就是个摆设 阿里巴巴也发布了qwen 110b大模型,这个真牛逼 牛逼到上面那四张A800才跑的动,也只是勉强跑的动 民用显卡根本不敢说话 就连一向闭口不谈AI的苹果公司也按捺不住 而且一口气发布了4个模型 当然了,也是看客级别的 近几天着重测试了Meta Liama3 8B版本 寻常问题都是对答如流的 就这个体量的模型,有这个能力,已经很不错了 当然还有巨大的潜力 今天我给模型下达了几乎不可能的任务 看起来模型完成的非常好 不信你跟着往下看 ![1.jpg](/usr/uploads/2024/04/218301968.jpg) ![2.jpg](/usr/uploads/2024/04/707414554.jpg) ![3.jpg](/usr/uploads/2024/04/3652779838.jpg) ![4.jpg](/usr/uploads/2024/04/3445885483.jpg) ![5.jpg](/usr/uploads/2024/04/2343229664.jpg) ![6.jpg](/usr/uploads/2024/04/3661034430.jpg) 模型大概被我气到了 ![7.jpg](/usr/uploads/2024/04/4238289541.jpg) 已经泣不成声了 ![8.jpg](/usr/uploads/2024/04/3487549676.jpg) 几乎不能回答完整了 ![9.jpg](/usr/uploads/2024/04/1167450283.jpg) 如果需要我打分的话,给40分吧,满分120分的那种 我认为未来一年优化后可能达到70分左右 结论就是,目前离线模型几乎没什么用 再等一年吧,一年后估计有较大改观
2024年04月28日
103 阅读
0 评论
0 点赞
2024-04-24
目前生成式AI最大的短板是什么?
目前生成式AI最大的短板是什么? ![1.jpg](/usr/uploads/2024/03/2329140978.jpg) 如图 最大的短板应该是默契 你不懂我 就算放一本百科全书加一本康熙字典在你面前你一样看不懂我 如果有默契 一个眼神就足以说明一切 例如下表格式,一个问卷调查,共8题,每题有多个备选项,至少需要选择3项 ![2.jpg](/usr/uploads/2024/03/875829582.jpg) 我需要做出统计,如下表,某一题中的各个问题被选择了多少次 ![3.jpg](/usr/uploads/2024/03/4218007221.jpg) 对此,我将Excel表单基础数据整理好了,并且写了一份我的需求,如下: 第一页回收,是问卷结果集8列(共8个问题) 第二页统计表单的8个问题和对应的可选项,以及统计列,对应的是第一页的问卷结果集 我需要分析第二页的每一个答案,在第一页中的被选择了多少次 问卷一共收回了152份第7题为例, 选中关爱会主席的2个, 选择关爱委员会成员26个, 选择活动小组团长的6个, 选择活动小组政委的12个, 以上角色均不参加的106个 合计152个 我需要在第2页的统计表单做出统计, 意思是每一题中的每一个问题, 例如 M列的打造ABP文化建设和N列的计数, 每个问题在第一页中被选中了多少次。 数据清洗:将第一页的回收数据(152份问卷)与第二页的题目及可选答案进行对比,确保数据的一致性和准确性以第7题为例。 数据拆分:根据第二页的题目,将第一页的每个问题的答案拆分成对应的可选答案。 例如,如果第二页的第7题有四个可选答案(关爱会主席、关爱委员会成员、活动小组团长、活动小组政委),我们需要将第一页的相应答案拆分成这四个部分。 数据匹配:将拆分后的答案与第二页的可选答案进行匹配,统计每个可选答案在第一页中被选中的次数。 以第7题为例,我们需要执行以下操作: 确认第一页中第7题的答案分布情况。 将答案拆分成四个部分:关爱会主席、关爱委员会成员、活动小组团长、活动小组政委。 对于每个部分,统计在第一页中被选中的次数。例如,关爱会主席被选中2次,关爱委员会成员被选中26次,等等。 在第2页的统计表单中, A列是问题,b列是对A列的统计 同样,C列问题,D列是对C列的统计.... 对于每个可选答案,统计其在第一页中被选中的次数。 重复以上步骤,为第二页的每个题目创建统计表单。 先是问了智谱轻言 各种回复乱七八糟 百度则摆烂,直接不支持excel 月之暗面更简单了,直接罢工
2024年04月24日
49 阅读
0 评论
0 点赞
MAC_8GB内存到底够不够用?
MAC_8GB内存到底够不够用? windows垃圾回收机制非常糟糕 每次系统升级带来的都是堆砌硬件 CPU+内存 加上现在AI带来对显卡无穷无尽的需求 还有随之水涨船高的存储需求 前面一波虚拟货币炒的显卡硬盘跌宕起伏 后面跟着AI 好歹AI对人类对社会是有用的 搞不懂虚拟货币有什么用 纯属浪费社会资源 扯远了 现阶段各种软件优化不到位 尤其是鹅厂 根本不在乎用户感受 各种程序常驻后台 QQ、微信、企业微信、等等 每个程序至少占用500mb内存 再加上系统开机2gb内存 以及常用的办公软件,邮箱,excel,浏览器等等 还有些erp,以及各种其他工具 8gb已经远远不够用了 万恶的MAC依然大言不惭的飚狠话说8gb依然够用 你是没有经过社会的毒打 说什么MAC8gb=win16gb 这一定是脑子被门夹了才会说这样的蠢话 什么是gb? 字节度量单位 好比一个水桶 MAC的8gb就相当于一个8升的水桶 但是质量尤其好 不光装水 装沙子装石头都能胜任 但是 但是,只能装8升 毕竟容量就这么大 哪怕你优化的再好 那也就这么大 怎么就等于隔壁16升大桶了?
2024年04月24日
42 阅读
0 评论
0 点赞
2024-04-16
怎样破解AI文章一眼假的问题?
![AI.jpg](/usr/uploads/2024/04/1279870162.jpg) 如今感觉越来越离不开AI了 不管是代码类 还是工作总结类 都可以问AI 只要你问问题的足够精确 AI几乎没有废话 比他妈的某度简洁多了 你要什么给你什么 不像某度 要命 普通人用AI主要是做一些文案类的应用 例如工作总结之类的 还有写新闻通稿之类的 都离不开AI 但是有没有发现一个问题 不管你用的是老美顶尖的GPT 还是国内号称比GPT更牛逼的AI 输出的文章一眼即可辨别这不是人写的 这是为什么? 究其原因 我认为这是目前AI最大的痛点 没有人类的情感 所谓的情感 当然由最基本的喜怒哀乐组成的 例如本文开头的那几句 他妈的 除非你给AI特定的身份标签 否则AI绝对不会输出这几个字 这就是典型的情感 还有一点 AI输出的几乎不会有错别字 《康熙字典》共收录汉字47035个 1915年中华书局出版的《中华大字典》共收字48000余个 1986年到1990年的《汉语大字典》收字54678个 1994年出版的《中华辞海》,共收汉字87019个,其中重复字320个 字数最多的要数日本《今昔文字镜》,收录汉字超15万 GB 2312标准共收录6763个汉字,已经覆盖我们99.75%的使用频率 据统计,1000个常用字能覆盖约92%的书面资料 2000字可覆盖98%以上 3000字就已到99%了 综上所述,就算一共有15万字,加上这些字组的词,组的句子 算100万字 典型的AI包含了多少信息呢? 最简单的模型3B 即30亿 这是能加载到手机上的模型 电脑上使用的离线模型一般使用7B或以上 一般来说,小于7B的不建议使用 智商有限,本文不做展开讨论 一个简单的30亿参数的模型几乎包括了人类最常用的所有信息 更别说简单的文字了 AI写文章几乎不会出现任何错别字 为什么不是100%呢? 毕竟模型是人类训练的 只要有人类参与 不可能达到100% 想必这就是硅基生命为何要取代碳基生命的理由之一吧 又扯远了 回头再来说 AI生成的文章是生成式的 具有随机性 专业名词叫做随机种子 但是万变不离其宗 人类训练AI模型时 是按照人类最常见的 最简单的 大众所熟知的 教科书式的 例如代码规范 100%按照官方规范投喂的 例如生成式文章 都是拿名人名作去投喂的 所以你跟AI说 请模仿鲁迅的文笔给你写一篇文章 那真是毫不费力分分钟就好 正因为AI的守规矩 所以就有了方圆 这里的方圆就是一个圈圈 只要是AI写的文章 都出不了圈 一眼就可以识别这是AI写的 例如人类会经常说些倒装句 这是AI写的吧,这篇作文 这是AI写的吧,这篇论文 这是AI写的吧,这首歌词 你吃了吧,中饭 你交了没有?学费 看了小视屏里面教程,一边看一边做,我真是学废了 我左手一只鸡,右手一只鸭,嘴里喝着8瓶娃娃 是不是就没有AI色彩了 而是感受到了人类的色彩 所以 AI写的文章 你得再改改 改个倒装句 故意写错几个字 同音不同义的 等等等等 可以比较快速的抹除部分AI痕迹 到底能抹除几分,那要看你用心几分了
2024年04月16日
64 阅读
0 评论
0 点赞
1
...
5
6
7
...
25
网站版权本人所有,你要有本事,盗版不究。 sam@gpcb.net