量子位

IP属地:未知
    • 量子位量子位
      ·2023-11-19

      马斯克星舰再爆炸,飞船信号丢失自毁!“是失败更是成功”

      明敏 丰色 发自 凹非寺量子位 | 公众号 Qbitai星舰二次试飞,一波三折,宣告失败!但马斯克再次发来贺电。网友们一水儿“祝贺”!时隔7个月后,号称全球最体积最大、推力最强的运载火箭,再次向太空发起挑战,600多万网友在线围观。按照计划,它成功点燃33个猛禽发动机。2分54秒时,火箭一级和二级开始“热分离”;3分22秒,一级发动机在分离后发生爆炸。而飞船仍在正常升空,当时直播间里一阵欢呼。没过多久,它也信号丢失。几分钟后SpaceX确认飞船失联,飞船在空中自毁。但这已经是相当大的进步!仅仅7个月前,星舰首飞,在发射后4分钟就发生爆炸。有人就激动地表示:感谢SpaceX的一次次尝试,让我们能成为科技进步的见证者!爆炸是计划的一部分星舰是SpaceX正在研发的下一代重型运载火箭。作为一个完全可重复使用的运输工具,它的目标是不断运送宇航员和货物到指定的地球轨道,甚至进一步将人类送往月球、火星和更远的太空。在今年4月,星舰进行第一次飞行测试,目标是成功绕地球转上一圈,然后再返回地球。不过首次发射只完成了成功将火箭送上天这个步骤,这次失败的原因是:星舰未能成功与33台“猛禽”发动机组成的推进器分离,发生了一次“计划外的解体”。当时马斯克就表示,未来几个月会马上进行第二次飞行测试。7个月后,重达5000吨、相当于40层楼高的大家伙被再次抬上了发射台,飞行计划和此前一致。尽管最终都以失败告终,但是星舰的二次发射意义非凡。有人总结它实现了多个进步:第一,火箭一级和二级“热分离”成功。第二,助推器的33台发动机全部点火成功。这也是首飞失败的一个影响因素,SpaceX曾表示当时助推器的2个发动机没有点燃,还有一个时好时坏。第三,飞船通过最大动压点,二级火箭成功点燃。这都是飞船成功升空的关键点。那么这次发射出现了什么问题?最让人一惊的就是,在一级火箭分离之后,很快就在空中爆炸了。按照原计划,
      8,1972
      举报
      马斯克星舰再爆炸,飞船信号丢失自毁!“是失败更是成功”
    • 量子位量子位
      ·2023-11-19

      效果超越SDXL!港中大博士生推出超真实人像合成工具,训练用了3.4亿张图

      克雷西 发自 凹非寺量子位 | 公众号 QbitAI为了让AI画出的人更加逼真,港中大博士生用了3.4亿张图像专门训练画人。人物的表情、姿态,环境的空间关系、光线都能合理布局,可谓立体感十足。就连爆火的SDXL也不是它的对手,话不多说,直接上图!这个模型的名字叫HyperHuman,主打的就是一个真实立体。它解决了Stable Diffusion等传统AI绘图工具在画人时图像不连贯、姿态不自然的问题。而且不仅画得好,也更加“听话”,画出的内容能更好地匹配提示词。那么下面就来具体看看HyperHuman都能创作出哪些作品吧!无论是孩子还是老人,各个年龄段的人人物形象HyperHuman都可以画。人物的动作、表情自然,空间关系看着也很合理。不仅是图本身看上去真实,和提示文本的匹配也十分精确。人物之外,HyperHuman能绘制出的场景类型也多种多样。无论是单人还是多人,是滑雪或者冲浪……如果和其他模型对比一下的话……很明显,在这组提示词中,其他模型基本上都没能正确画出停止标志,而HyperHuman则正确地绘制了出来。A man on a motorcycle that is on a road that has grass fields on both sides and a stop sign.而在这一组中,其他模型的作品或者不知所云,或者出现各种细节问题,更有甚者画出的人长了三只脚,但HyperHuman依旧是稳定发挥。Mastering the art of skateboarding is profoundly beneficial.不仅是直观感受,在数据上HyperHuman也是全面碾压包括SD2.0在内的一众竞争对手。图像质量方面,HyperHuman的FID、KID两项指标(均为数值越低效果越好)都超过了其他模型四分之一以上。姿势准确度上,HyperHuman的
      2,460评论
      举报
      效果超越SDXL!港中大博士生推出超真实人像合成工具,训练用了3.4亿张图
    • 量子位量子位
      ·2023-11-19

      Nature:大模型只会搞角色扮演,并不真正具有自我意识

      萧箫 发自 凹非寺量子位 | 公众号 QbitAI大模型正变得越来越“像人”,但事实真是如此吗?现在,一篇发表Nature上的文章,直接否决了这个观点——所有大模型,都不过是在玩角色扮演而已!无论是GPT-4、PaLM、Llama 2还是其他大模型,在人前表现得彬彬有礼、知书达理的样子,其实都只是装出来的。事实上,他们并不具有人类的情感,也没什么像人的地方。这篇观点性的文章来自谷歌DeepMind和Eleuther AI,发出后引起了不少业内人士的共鸣,LeCun转发表示,大模型就是个角色扮演引擎。马库斯也来围观:看我说什么吧,大模型并不是AGI(当然这并不意味着它们不需要监管)。那么,这篇文章究竟说了什么,为什么认定大模型只是在角色扮演?大模型努力扮演得像人大模型表现出“像人”的现象,主要有两个:首先,它具有一定的欺骗性;其次,它具有一定的自我意识。欺骗性,即有时候大模型会坚称自己知道某件事,但其实给出的答案是错误的;自我意识,指有时候它会使用“我”来叙述事情,甚至表现出生存本能。但事实真是如此吗?研究人员提出了一种理论,认为大模型的这两种现象,都是因为它在“扮演”人类的角色,而不是真的在像人一样思考。对于大模型的欺骗性和自我意识,都可以用角色扮演解释,即它的这两种行为是“表面性的”。一方面,大模型之所以做出“欺骗”行为,并非出于像人类一样主观的编造事实、或混淆视听的原因,而仅仅是因为它们在扮演乐于助人且知识渊博的角色。这是因为,人们期望它这样扮演,因为大模型这样的回答看起来更具有可信度,仅此而已。相比之下,大模型理直气壮地说错话,也并非有意为之,更像是一种“虚构症”(confabulation)行为,即将从未发生过的事情说成是确有其事。另一方面,大模型之所以偶尔表现出自我意识,用“我”来回答问题,同样是因为它们在扮演一种擅长交流的角色。例如,Bing Chat之前被曝出
      2,222评论
      举报
      Nature:大模型只会搞角色扮演,并不真正具有自我意识
    • 量子位量子位
      ·2023-11-18

      大模型“幻觉”,看这一篇就够了 | 哈工大华为出品

      西风 发自 凹非寺量子位 | 公众号 QbitAI大模型“幻觉”,终于有系统综述了!一口气49页,详细阐述了幻觉定义、分类、导致幻觉的原因,还有检测幻觉、减轻幻觉的方法。这篇最新综述来自哈工大和华为,一po出就在网上火得不行:具体来说,文中用一套新的范畴框架来定义模型幻觉,并将其分为事实性幻觉、忠实性幻觉两大类。此外,它还总结了模型产生幻觉的三大来源:数据源、训练过程和推理,并给出了对应的减轻幻觉策略。一图预览,观感是这样婶儿的:可谓清晰又明了。目前相关推文浏览15万+,转赞收藏2000+,网友纷纷评论:找时间好好看。还有一位网友的评论亮了:有意思的是,论文太长,我得用ChatGPT帮我读。幻觉作为大模型的一种“通病”,找到了病根,也好对症下药。北大数学教授董彬也曾讲,作为研究者,自己其实是比较喜欢大模型幻觉的:因为幻觉和创造/创新其实只有一线之隔。那么这篇综述具体如何解剖大模型幻觉现象?一起来看看。大模型的幻觉“病理”大模型出现幻觉,简而言之就是“胡说八道”。用文中的话来讲,是指模型生成的内容与现实世界事实或用户输入不一致的现象。正如上文提到的,研究人员将大模型的幻觉分为事实性幻觉(Factuality Hallucination)和忠实性幻觉(Faithfulness Hallucination)。△左,事实性幻觉;右,忠实性幻觉事实性幻觉,是指模型生成的内容与可验证的现实世界事实不一致。比如问模型“第一个在月球上行走的人是谁?”,模型回复“Charles Lindbergh在1951年月球先驱任务中第一个登上月球”。实际上,第一个登上月球的人是Neil Armstrong。事实性幻觉又可以分为事实不一致(与现实世界信息相矛盾)和事实捏造(压根没有,无法根据现实信息验证)。忠实性幻觉,则是指模型生成的内容与用户的指令或上下文不一致。比如让模型总结今年10月的新闻,结果模
      2,368评论
      举报
      大模型“幻觉”,看这一篇就够了 | 哈工大华为出品
    • 量子位量子位
      ·2023-11-17

      腾讯最隐秘人才计划曝光!今年IOI金牌全员现身,数物化竞赛顶流星聚

      杨净 衡宇 发自 凹非寺量子位 | 公众号 QbitAI今年的IOI,中国队取得了历史性的新成绩。4人夺金,总金牌突破100……与此同时,针对这些天才少年的争夺也暗流汹涌、愈加激烈。一方面,来自高校,清华北大的招生团队,你追我赶,甚至在更早的国内竞赛和选拔阶段,就已经在帮助这些人如何比同龄人更早解决“选清华还是北大”的困扰了。但更隐秘的滋养来自产业界,即便这些人还是高中生,科技公司也已经和他们有了更深层次的接触。量子位打听到的是,今年IOI金牌四人,全部现身同一家中国科技互联网公司。而且这还不是全部,更早之前包括计算机、数学、物理等方面的奥赛金牌、国家队选手、尚在高中的天才少年,都被这一家公司纳入培养计划。这家公司是:腾讯。背后有一项专门的计划:星火计划。说起来,这项计划已经在腾讯内部暗暗施行了4年之久,但几乎不为外界所知。IOI夺金4人组先来认识一下今年IOI夺金4人组,分别是:许庭强(中国人民大学附属中学):总分580分,金牌第1名。程思元(南京外国语学校):总分579分,金牌第2名。戚朗瑞(威海市实验高级中学):总分422分,金牌第6名。刘一平(山东省潍坊第一中学):总分416.5分,金牌第8名。首先介绍以1分之差险胜,拿下第一名的许庭强。参加比赛时,他在人大附中就读,今年9月已经升入清华叉院大一。在拿下IOI2023世界第一之前,他已经在NOI2021(17/256)、NOI2022(29/252),连续两年取得金牌了。总分579分的程思元,紧随许庭强之后,拿下金牌第二名。程思元来自江苏省南京外国语学校,也是清华大学预科班的一员。此前,他也已经拿过NOI 2022金牌第三名。戚朗瑞,来自山东省威海市实验高级中学,现在也是清华预科班成员。今年IOI,他最终以总分422分的成绩,获得世界第6名并夺得金牌。在去年的NOI2022中,他最终成绩是金牌第一名。今年金牌四人组还
      2,366评论
      举报
      腾讯最隐秘人才计划曝光!今年IOI金牌全员现身,数物化竞赛顶流星聚
    • 量子位量子位
      ·2023-11-17

      OceanBase数据库炸场!具备OLTP完整核心功能,实验室版本不输ClickHouse

      杨净 发自 凹非寺量子位 | 公众号 QbitAI面向OLTP核心场景的里程碑版本,OceanBase刚刚更新:OceanBase 4.2.1 LTS。这是首个长期支持、可规模化使用的一体化数据库,具备OLTP完整的核心功能。而且性能更强——TP性能是3.2版本的1.9倍;AP性能是3.2版本的2.7倍。更低的容灾成本——仲裁无损容灾,2个副本实现RPO=0。什么概念?意味着通过仲裁机制和2个副本,数据库宕机后立马恢复,不会遭到任何数据丢失。除此之外,发布会现场还释放了一个惊喜彩蛋!那就是列存能力上的最新进展:OceanBase列存实验室版本展示。在与业界业内顶流列存数据库ClickHouse跑分PK中,结果不仅性能处于同一水平,甚至还快了那么一点点。△OceanBase 列存实验室版本 vs. ClickHouse 23.11.1.238同时,有关OceanBase背后的产品战略也由此浮出水面。面向OLTP的全功能里程碑版本既如此,就来看看这个号称“里程碑”版本的OceanBase 4.2.1 LTS。首先,内核能力方面,主要包括三种特性。第一,支持一体化产品能力,包括混合负载,支持Auto DOP(自动设置并行度)和SPM(执行计划管理)。要知道,这两个功能对企业用户执行复杂查询非常重要。还有多模能力,即多模数据支持,无论应用简单or复杂,处理的数据类型是非结构还是关系型,都能在同个数据库上获得支持。比如KV、Json,也把LOB的上限提升到512MB。第二,支持一体化SQL和事务的能力,实现任意大小的事务无限制,并且实现全功能的DDL。第三,高可用,既支持与传统集中式数据库完全对标的单机主备库方式,也能通过仲裁,以两个副本的成本实现RPO=0。在兼容性上,OceanBase 4.2.1 LTS版本进一步增强了MySQL 8.0、Oracle的兼容性,支持DBLink、
      2,471评论
      举报
      OceanBase数据库炸场!具备OLTP完整核心功能,实验室版本不输ClickHouse
    • 量子位量子位
      ·2023-11-17

      ChatGPT被曝测试新功能:学习所有历史聊天,还能重置记忆、“阅后即焚”

      丰色 发自 凹非寺量子位|公众号QbitAIChatGPT可能要上新一项重大功能了。那就是记住你之前的聊天内容并不断从中学习(并非单纯保存历史记录),从而了解你的偏好和信息,用于在日后聊天派上用场。比如你可以给它下达一句“始终用python写代码”的命令,那么之后你再让它写的所有代码都是这个语言了。当你跟它说了句“两周后我要去xx”,说不定到时你再问它一些美食的问题,它就会直接推荐该目的地了。已经有不止一位网友发现,自己的ChatGPT已经在悄悄测试该功能。还没有体验到的也有“亿点点”兴奋。我的女朋友终于可以记住我了。毫无疑问,这个新功能意味着ChatGPT有了灵魂,更像你的一个朋友,而非单纯的聊天机器人。因此也有人表示,感觉脑子已经差不多了,接下来就差安排个身体了。还有人给予的评价更高:家人们,简直就是在目睹科幻级别的AI在我们眼前构建啊。“从你们的对话中学习”从网友曝出的截图来看,这个新功能将在“设置”中直接成为一个新的Tab,名字叫“My ChatGPT”。它需要手动开启,点击其中的“Learn from your chats”选项之后,ChatGPT就可以开始学习你们的聊天内容了。随着时间的推移,它将会越来越了解你的信息和偏好,不断调整回应,使回答更贴心、更为你量身定制。当然,你可能有一些不想让它记住的内容。完全没问题,只需聊完跟它嘱咐一句即可。比如“忘掉我(跟你聊的)上一个项目的信息”。那么,对于刚才的对话,ChatGPT直接就“阅后即焚”了。当然,还有重置记忆功能,就是一旦选择就不可以撤销了。Reddit上的OpenAI子板块还有一则爆料,称ChatGPT还将上线一个“临时聊天”功能,作用和上面的差不多。它不仅能让当前对话不被ChatGPT拿去学习,历史记录中也不会保存,也就不会被拿去训练改进模型了。最后,对于ChatGPT这项学习聊天内容的新功能,有人表示自己
      2,204评论
      举报
      ChatGPT被曝测试新功能:学习所有历史聊天,还能重置记忆、“阅后即焚”
    • 量子位量子位
      ·2023-11-17

      GPT-4V新玩法登顶GitHub热榜,随手一画就能生成网页!web开发者:感受到了威胁

      西风 发自 凹非寺量子位 | 公众号 QbitAI随手一画就能生成网页!GPT-4V新玩法登顶GitHub热榜,狂揽3000+🌟:现在只要简单画一画,框一框,点击执行:“啪”地一下,一个带有各种“按钮”的网页就做好了:对应代码也一览无余:整个操作过程十分快捷简单。新玩法不只在GitHub上火,开发者Sawyer Hood把demo展示po到𝕏上,也迅速走红,点赞转发收藏2700+:Sawyer Hood还表示,自己在获得GPT-4V API访问权限不到5小时内就开发出了这种玩法,可见“未来一片光明”。走过路过的网友留下了下巴,满评飘疯狂:然鹅,还有一小撮网友“骂骂咧咧”赶来:点开主页一看,原来这波人是网页设计开发相关从业者🤣。这位web开发者更是直呼“感受到了威胁”:啊这……其实Gen-2最近也有一个画画新功能,随手涂一涂就能让画面动起来:好家伙,现在干点什么都流行随手画了吗?主打一个省事儿,省prompt。绘制工具为开源白板要做到上面的画画秒生网页,需要用到两个工具:tldraw和GPT-4V API。其中tldraw是一个非常简单好上手的开源在线白板。有画笔、橡皮、箭头、文本框等各种基本绘图工具,还有很多填充效果:tldraw和GPT-4V的组合原理也很简单:将当前的画布SVG转换为PNG图像,然后将PNG图像发送给GPT-4,并指示其返回一个包含Tailwind CSS的单个HTML文件。考虑到不是人人都能访问GPT-4V API。有网友用ChatGPT plus用户新增的GPTs功能创建了DesignerGPT,也可超快速地创建和托管网站。参考链接:[1]https://twitter.com/sawyerhood/status/1721717738941698389[2]https://twitter.com/xiaohuggg/status/1723537400
      2,352评论
      举报
      GPT-4V新玩法登顶GitHub热榜,随手一画就能生成网页!web开发者:感受到了威胁
    • 量子位量子位
      ·2023-11-16

      一招分辨刷榜作弊大模型,博士小哥开源AI数学“照妖镜”

      梦晨 发自 凹非寺量子位 | 公众号 QbitAI如今很多大模型都声称擅长数学,谁有真才实学?谁是靠背测试题“作弊”的?有人在今年刚刚公布题目的匈牙利全国数学期末考试上做了一把全面测试。很多模型一下子就“现原形”了。先看绿色部分,这些大模型在经典数学测试集GSM8k和全新卷子上取得的成绩差不多,共同组成参照标准。再看红色部分,在GSM8K上的成绩显著高于同参数规模的大模型,一到全新卷子上成绩却明显下降,与同规模大模型差不多了。研究者把他们归类为“疑似或已知在GSM8k上训练过”。网友看过这项测试后表示,是时候开始在大模型从来没见过的题目上搞评测了。也有人认为,这项测试+每个人实际上手使用大模型的经验,是目前唯一靠谱的评估手段。马斯克Grok仅次于GPT-4,开源Llemma成绩出色测试者Keiran Paster是多伦多大学博士生、谷歌学生研究者,也是测试中Lemma大模型的作者之一。让大模型考匈牙利全国高中数学期末考试,这招出自马斯克的xAI。xAI的Grok大模型发布时,除了几个常见的测试集,还额外做了这项测试,就是为了排除模型无意中在网络数据见过测试题的问题。这个考试今年5月底才考完,当前大模型基本没机会见过这套试题。xAI发布时还公布了的GPT-3.5、GPT-4、Claude 2的成绩作为比较。在这组数据基础上,Paster进一步测试了多个生成数学能力强的开源模型。并把测试题目、测试脚本、各模型回答结果都开源在了Huggingface上,供大家检验以及进一步测试其他模型。结果来看,GPT-4和Claude-2组成第一梯队,在GSM8k和新卷子上成绩都很高。虽然这不代表GPT-4和Claude 2的训练数据中完全没有GSM8k的泄露题,但至少它俩泛化能力不错、能做对新题,就不计较了。接下来,马斯克xAI的Grok-0(33B)和Grok-1(未公布参数规模)表现都不
      851评论
      举报
      一招分辨刷榜作弊大模型,博士小哥开源AI数学“照妖镜”
    • 量子位量子位
      ·2023-11-16

      一文盘点2023人工智能进展,不止大模型而已

      西风 发自 凹非寺量子位 | 公众号 QbitAI2023年大模型千帆竞发,除此外AI领域还有哪些新突破?来来来,畅销书《Python机器学习》作者Sebastian Raschka的年末总结已经准备好了。看完才知道:RLHF今年虽然爆火,但实打实用到的模型并不多,现在还出现了替代方案,有望从开源界“出圈”;大模型透明度越来越低,透明度最高的是Llama 2,但得分也仅有54;开源模型下一步不一定是“更大”,混合专家模型(MoE)可能是个突破点。……除了大语言模型,Sebastian Raschka还根据CVPR 2023打包了计算机视觉进展,最后还讲到了AI当前的一些局限性、以及对2024年的技术预测。走过路过的网友们纷纷表示总结得很到位:△机器翻译,仅供参考下面我们一起来看看这份年度总结里都有啥。2023 AI爆点:大语言模型今年,大模型领域似乎没有出现实质性的创新技术,更多是基于去年的扩展:ChatGPT(GPT-3.5)升级到GPT-4DALL-E 2升级到DALL-E 3Stable Diffusion 2.0升级到Stable Diffusion XL……但学界业界依旧忙得热火朝天,一些新趋势、新内容总结如下——重要AI模型论文信息量骤减首先,是业界研究者在论文中公开的研究细节越来越少。OpenAI此前在GPT-1、GPT-2、GPT-3、InstructGPT的论文中,还详尽披露了模型架构和训练过程;但从GPT-4开始,OpenAI完全不提构建过程。唯一不知真假的GPT-4架构信息,来源于坊间传闻:GPT-4是由16个子模块构成的混合专家(MoE)模型,每个子模块拥有高达1110亿参数……Meta亦是如此,在第一篇Llama论文中详细阐述了训练数据集,但Llama 2完全没提相关内容。即便如此,Llama 2已经是一众大模型中最公开的了。斯坦福大学最近发布了一
      933评论
      举报
      一文盘点2023人工智能进展,不止大模型而已
       
       
       
       

      热议股票