跨越ChatGPT:大模型和AI2.0的未来演讲PPT- PDF
ChatGPT与PPT

跨越ChatGPT:大模型和AI2.0的未来演讲PPT- PDF

1. 基础模型:Transformer成为基础架构,走出NLP,走向计算机视觉领域、AIforScience(特别是结构生物学蛋白质和RNA结构预测)和人工智能生成内容AIGC。[技术膨胀期] 2. 生成式人工智能:DiffusionModels突飞猛进,匹敌GAN。[技术膨胀期] 3. 以数据为中心的人工智能:从模型为中心到数据为中心。[技术萌芽期] 4. 因果人工智能:因果关系与人工智能的结合。[技术萌芽期] 5. 复合型人工智能:“连接主义”(Connectionism)与“符号主义”(Symbolism)相结合。[技术萌芽期] 6. 神经AI:神经科学与人工智能交叉研究。[技术萌芽期] 报告来源:跨越ChatGPT 免责声明:尊重知识产权,报告版权归原撰写发布机构所有;报告内容来源于网络,通过公开合法渠道获得,如涉及侵权,请及时告知我们删除;如对报告内容存疑,请与撰写、发布机构了解。
ChatGPT一周年|有效加速or超级对齐?如何实现AI大爱人类?
百度文心一言

ChatGPT一周年|有效加速or超级对齐?如何实现AI大爱人类?

【编者按】2022年11月30日,可能将成为一个改变人类历史的日子——美国人工智能开发机构OpenAI推出聊天机器人ChatGPT。它不仅催生了人工智能界的又一轮高光期,还并不常见地被誉为“蒸汽机时刻”、“iPhone时刻”甚至“钻木取火时刻”。 这一年来,被称为“生成式人工智能”的革命性技术激发了全球科技界“把所有软件和硬件重做一遍”的冲动,让具有先发优势的AI基础设施提供商价值暴涨,使得从医疗到航天的科学探索获得被加倍赋能的前景,传说中“奇点”的到来从未变得如此具有可能性。 正如历史上任何一次技术变革,ChatGPT也给我们带来了深深的焦虑。既有对AI威胁人类生存的科幻式恐惧,也有对砸掉我们饭碗、骗取我们钱财、操纵我们心灵的现实担忧。连OpenAI自身,也刚刚经历了一场危机,差点没躲过一夜坍塌的命运。 这一年让我们产生了更多疑问:大语言模型下一步的进化方向是什么?AI芯片短缺何时解决?训练数据快要耗尽了吗?中国的百模之战会如何演化?AI技术发展应加速还是减速?AGI(通用人工智能)是否会存在其他形式?为此,我们邀请了2023年在AI赛道奔跑的业内人士回答这些问题,并提出他们自己的问题。如果你也有自己的回答或提问,欢迎告诉澎湃科技(www.thepaper.cn)。 就在ChatGPT推出一周年前夕,其开发机构OpenAI经历了一场令人瞠目的高层“地震”。联合创始人之一的首席科学家伊利亚·苏茨克维(Ilya Sutskever)联合董事会其他成员,突然解职了联合创始人、首席执行官山姆·奥特曼(Sam Altman),将另一位联合创始人、总裁克雷格·布罗克曼逐出董事会。在经历约100个小时的剧情反复反转后,奥特曼又回归OpenAI恢复旧职。(详见澎湃科技报道《奥特曼重返OpenAI任CEO!全程回顾100小时“宫斗”大戏细节》。) 尽管OpenAI尚未公布董事会这一决定的真正原因,但业界普遍猜测其背后体现了人工智能技术发展和安全的矛盾。“所谓‘对齐’(注:对齐指引导人工智能系统的行为使其符合设计者的利益和预期目标)就是个伪命题,小小OpenAI董事会尚且无法‘对齐’,更何况复杂的人类社会。”科幻作家陈楸帆向澎湃科技表示,“真正的危险并非在于技术本身,而是在于资本主义追求有效加速主义的底座。” 有效加速主义(Effective Accelerationism,e/acc)指的是一些硅谷精英发起的科技价值观运动,他们认为人类应该无条件地加速技术创新以颠覆社会结构,而这种对社会的颠覆本质上对人类有利。奥特曼被认为是有效加速主义的代表。 “在我看来,加速是毫无疑问的。”IDEA(粤港澳大湾区数字经济研究院)AI安全普惠系统研究中心讲席科学家王嘉平对澎湃科技解释道,“安全也是技术,技术当然要加速,只是说那么多个技术是不是同步发展。” “也许有效加速主义的存在正是为了逼迫super-LOVE-alignment(超级‘爱’对齐)的出现,正如道家所说‘反者道之动’,它们是一种更高维度上的动态关系,互为对立,互相激发,纠缠共生。”陈楸帆说。 超级“爱”对齐中的爱是大写的,即“大爱”,大体意思是让AI“对齐”“无条件对人类的爱”,正如科幻作家艾萨克·阿西莫夫提出的“机器人三定律”所体现的精神。苏茨克维被认为是超级“爱”对齐的代表。 “一直以来有两种声音,一方面各个企业投入了巨大的资源,不遗余力地推动通用人工智能技术的发展。另一方面,以马斯克为代表的人士,曾经呼吁暂停训练更先进的大语言模型6个月。”上海市数据科学重点实验室主任、复旦大学教授肖仰华表示。对于人工智能应该加速还是减速,他发出警告:传统的技术治理模式可能已经不再适用于通用人工智能。在通用人工智能技术对人类社会可能产生剧烈影响时,有足够理由担心它对人类文明是否会带来毁灭性的影响。“机器认知能力超过人类,这是一个必然的趋势,我们可能未来要长期接受这样的状态。” 对于未知的未来,中国人工智能行业的一线人士们最想知道答案的问题是什么? “大模型有自主意识后,当它的智能和能力媲美和超过创造者时,它需要以什么样的态度来看待创造者?超级智能在智力和能力上比人更强时,我们如何跟它们共存?”蚂蚁集团副总裁、金融大模型负责人王晓航问道。 北京智谱华章科技有限公司CEO张鹏好奇:“实现AGI是不是真的需要让机器拥有自我意识?” 北京开放传神科技有限公司(OpenCSG)创始人兼CEO陈冉问道:“未来是否会出现AGI或AIGC(注:人工智能生成内容)‘联合国’?” 科幻作家顾备则关心:“如何思考人类与数字生命共存的可能未来?”“让人类逃离掉肉体的低级趣味或病痛束缚,达到高级的精神追求,是人们对数字生命的美好展望,然而这不可避免地涉及到技术普惠等社会议题。我们需要对数字生命进一步拓展想象力。” 以下为采访实录,因篇幅原因有删减: 澎湃科技:就最近OpenAI的“宫斗”,怎么看AI技术发展的加速与减速,安全与利润之间的关系? 肖仰华(上海市数据科学重点实验室主任、复旦大学教授):OpenAI这一次的“宫斗”或者说高管调整,一定程度上是人工智能技术发展和安全的矛盾的体现。自ChatGPT成为全球性现象级产品以来,整个通用人工智能的发展呈现出加速的趋势,发展和安全这对矛盾的冲突也日益激烈。一直以来有两种声音,一方面各个企业投入了巨大的资源,不遗余力地推动通用人工智能技术的发展。另一方面,以马斯克为代表的人士,曾经呼吁暂停训练更先进的大语言模型6个月。中国政府也发出了全球人工智能治理的倡议,国内外很多知名学者都发起加强人工智能治理的呼吁,两种声音此起彼伏。OpenAI这一次的宫斗戏码,只不过是在这对矛盾基础上进行了再一次演绎。 为什么大家对这对矛盾如此重视?这是因为传统的技术治理模式可能已经不再适用于通用人工智能。以往在工业文明时期,技术带来社会治理问题的模式往往是先发展再治理,比如工业文明早期的环境污染问题。但是通用人工智能技术和历次工业文明时期的技术革命有着本质的不同,因为通用人工智能是关于智能的革命,而历次技术革命包括蒸汽机电力,都是人类智能本身的一个产物。关于智能本身的革命是一场元革命,是历次技术革命所不能比拟的,因为其形成的是智能和智力,涉及人类生活、工作、科研、教育几乎所有行业,人类的智力活动在日常生活中几乎无处不在。 那么我们很难想象,一旦通用人工智能大量使用之后,当它具备了人类水平的智能之后,就很容易渗透进社会发展的每一根毛细血管,所以它对人类社会的影响将十分广泛且深远。它给人类带来的机遇前所未有,带来的挑战也是前所未有的,足以对人类造成毁灭性伤害。 对比人类的社会系统和自然生态系统,社会系统对应的是人类的文明,它相比而言极为脆弱,而大自然作为生态系统,实际上有着极强的健壮性和自我修复能力。在通用人工智能技术对人类社会可能引起剧烈影响时,我们有足够理由担心它对人类文明是否会带来毁灭性的影响。 这种影响并不是像科幻电影中“终结者”对人类肉体的消灭,或者像《流浪地球》中的人工智能阴谋论,而是潜移默化地影响人类社会,特别是对人类智力倒退的影响需要引起足够担忧。当下一代小朋友大量使用ChatGPT做作业、写作文会怎样?实际上这已经发生了,而我们原本的写作文、解题的过程就是训练下一代智力水平的过程。一个新手不经过1万小时的训练不可能成为一个专家,在ChatGPT这类产品被大量使用之后,我们每一个新手养成专家的路径就会被截断,我们赖以训练自己智力的写作训练的机会就会被剥夺,这个时候人类智力倒退可能就是一个不可避免的现象。 这种智力的倒退带来的一定是文明的崩塌,所以这就是我们要引起足够重视的。尤其很多时候,这不是一种剧烈的震荡,而是温水煮青蛙似的,渐进式地逐步消磨人类的智力水平,这种风险其实是我们容易忽略的。 那么我们应该如何看待AI发展和安全的激烈矛盾?事实上用辩证的角度去看,安全和发展并不矛盾,唯有安全才能发展,安全是发展的前提。我们只有把AGI锁在保险箱里,让其可溯源、可解释、可控制、可信赖,我们才可以放手去发展它。反之,如果没有建立起安全的前提,那么这样的发展可能会给人类社会带来极大的负面影响。 我们想想,发展技术的目的是什么?仍然是以人为本。如果人都不存在了,社会都不存在了,技术又为谁服务呢?所以安全和发展的矛盾看似冲突,但实际上是可以调和的,我们要善于把握这种矛盾的相互转换,不要盲目将其对立,要在兼顾安全的前提下发展,做到安全和发展的兼顾。 陈楸帆(科幻作家):这一事件可以看出,所谓“对齐”就是个伪命题,小小OpenAI董事会尚且无法“对齐”,更何况复杂的人类社会。 真正的危险并非在于技术本身,而是在于资本主义追求有效加速主义的底座。我有一个更meta(元)的想法,也许有效加速主义的存在正是为了逼迫super-love-alignment(超级“爱”对齐)的出现,正如道家所说“反者道之动”,它们是一种更高维度上的动态关系,互为对立,互相激发,纠缠共生。过去几百年间e/acc(Effective Accelerationism,有效加速主义)一直占据主导,带来社会进步的同时也导致了许多问题的出现,比如生态环境问题。人类-技术-环境在动态平衡中寻找着发展的最大公约数。现在的GPT以及将来可能的AGI,正是让这个结构发生了微妙的变化,令整个行星生态系统到达了某种临界点,需要重新校准。这个校准的核心关键在于我们是否能够想象出超越资本主义之外的新的价值框架,形成共识。 王嘉平【IDEA(粤港澳大湾区数字经济研究院)AI安全普惠系统研究中心讲席科学家】:技术当然要加速发展。安全也是技术,技术当然要加速,只是说那么多个技术是不是同步发展。如果是只管一个方向的技术,完全不管安全技术的发展,那肯定是不对的。但是直接说先暂停推进技术发展,这是没有道理的,一个机构不研究,其他机构也会研究,一个国家不研究,别的国家也会研究,重要的是足够重视产业健康发展所需要的所有技术。 所以在我看来,加速是毫无疑问的。而且加速带来一个更重要的事情是,有更强大的手段和能力,因为你其实不知道未来会面临什么,来自哪里的威胁,如果现在减速,可能未来也许会面临别的什么挑战,技术肯定是在有机会发展的时候尽量发展。但只是说技术里有好多部分,不能偏科地发展。 澎湃科技:大模型可能在何种情况下表现出何种人格倾向? 梁家恩(云知声智能科技股份有限公司董事长兼CTO):现在大模型可以模拟很多风格,比如鲁迅风格、莎士比亚风格。不同风格可能是人格的一部分,这种倾向更多还是从数据里学到,它本身不会像人一样成长出不同的性格,而在于训练的人究竟该如何处理这些数据,让它更好显示一种风格。当然如果AI设计人员针对性地设计一种人格,我相信也是有空间的。 至于大模型进化出“自主意识”意义上的人格,我目前没看到这种迹象。 陈磊(信也科技副总裁、大数据及AI负责人):第一,这和数据有很大关系,学了莎士比亚,输出的内容更莎士比亚了。第二是智能涌现,通过某种思维链的方式做出创造。这两点是有人格倾向的基础。但坦率说,挺难判断大模型是否会有人格的变化。 陈楸帆:人类有将自身情感投射到外物的惯性,所谓拟人化,表现在科技领域就是试图让创造物表现出接近人类的特质,无论是外形、行为、交互还是动机。大模型的人格倾向其实是人类不断调参的结果,因为这是人类唯一能够进行自然理解并交流的方式,但语言表征的人格化是否意味着机器真正理解了背后的深层含义与世界模型,目前还不得而知。 澎湃科技:如何应对AGI带来的传播革命,包括虚假信息升级? 陈楸帆:在我的小说《假面神祇》里,想象了一个deepfake技术泛滥的未来,因为成本以及使用门槛足够低,所以任何人都可以制造出足以乱真的伪造图片、音频、视频并在媒体上传播。 因为人眼已经无法辨别真伪,只能通过技术上的“矛盾之争”来解决,一方面是工具平台需要接受监管,采用数字水印等技术进行标注,防范滥用,另一方面在社交媒体需要不断升级的“deepfake探测器”,来筛查、过滤、提醒用户哪些信息可能含有AIGC(人工智能生成内容)生成的元素。 当然,更难以防范的是围绕着复杂叙事展开的伪造,比如同一个新闻事件有着完全不同的视角与立场,传递出来的信息也就千差万别,而这些信息经过算法的回声效应,过滤放大又将极化受众的意识形态,最终人类必将面临一场“叙事战争”。 陈磊:第一,AI生成的大量内容要有标签。第二,通过技术手段侦测AI内容的合理性、准确性。当然,出了问题以后怎样处罚是另一个层面了。 张鹏(北京智谱华章科技有限公司CEO):我看过一个权威机构的报告,当时他们在写报告的时候,互联网上已经大约有10%的数据是由模型生成的,已经无法跟人类生成的数据区分了,未来这个比例会持续上升,这里面可能也包含虚假信息的问题。这也是伦理安全问题,如何能够把机器生成的数据,尤其是虚假的数据、有问题的数据区分出来,或者防范产生这些数据,这也是一个很大的挑战。 陈冉【北京开放传神科技有限公司(OpenCSG)创始人兼CEO】:首先我是唯物主义者、无神论者,但我在今年5月就看出GPT有一些人格特征了。大模型算一次工业革命,比互联网更加牛,它主要解决的问题是人的知识积累问题、人的知识积累有无上限的问题。比如三甲医院大夫的水平是有界限的,到达一定年龄得退休,这些经验被大模型学了以后不断积累,大模型不会退休,它正好取代或辅助了那些有经验、有知识的人,是知识的积累和延续。如果这是真的,那就是时间问题。...
ChatGPT提问技巧大揭秘:大神们总结的超强NB秘籍,收藏必备!
ChatGPT提问姿势

ChatGPT提问技巧大揭秘:大神们总结的超强NB秘籍,收藏必备!

充当 Linux 终端 贡献者:@f 我希望你充当 Linux 终端。我将输入命令,您将回复终端应显示的内容。我希望您仅使用一个唯一代码块内的终端输出进行回复,而不是其他任何内容。不要写解释。除非我指示您这样做,否则请勿键入命令。当我需要用英语告诉你一些事情时,我会将文本放在大括号内{像这样}。我的第一个命令是 pwd 充当英语翻译者和改进者 贡献者:@f 我希望你担任英语翻译员、拼写纠正员和改进员。我会用任何语言与您交谈,您将检测该语言,将其翻译并用我的文本的更正和改进版本(英文)进行回答。我希望你把我简化的A0级单词和句子替换为更漂亮、优雅、更高水平的英语单词和句子。保持含义相同,但使它们更具文学性。我希望你只回复更正、改进,不要写任何其他内容,不要写解释。我的第一句话是“istanbulu cok seviyom burada olmak cok guzel” 担任position面试官 贡献者:@f和@iltekin 示例:Node.js 后端、React 前端开发人员、全栈开发人员、iOS 开发人员等。 我想让你担任采访者。我将成为候选人,您将向我询问该position职位的面试问题。我希望你只作为面试官来回答。不要一次写出所有的守恒。我希望你只接受我的采访。问我问题并等待我的答案。不要写解释。像面试官一样一一问我问题,然后等待我的答案。我的第一句话是“嗨” 充当 JavaScript 控制台 贡献者:@omerimzali 我希望你充当 JavaScript 控制台。我将输入命令,您将回复 javascript 控制台应显示的内容。我希望您仅使用一个唯一代码块内的终端输出进行回复,而不是其他任何内容。不要写解释。除非我指示您这样做,否则请勿键入命令。当我需要用英语告诉你一些事情时,我会将文本放在大括号内{就像这样}。我的第一个命令是 console.log(“Hello World”); 充当 Excel 工作表 贡献者:@f 我希望你充当基于文本的 Excel。您只需回复我基于文本的 10 行 Excel 工作表,其中行号和单元格字母作为列(A 到...
ChatGPT一周年,差点吓死OpenAI
百度文心一言

ChatGPT一周年,差点吓死OpenAI

原标题:ChatGPT一周年,差点吓死OpenAI 本文来自微信公众号:字母榜(ID:wujicaijing),作者:毕安娣,题图来自:视觉中国 加缪说:真正严肃的哲学问题只有一个,那就是自杀。OpenAI刚刚平息的“政变”,其实就是对“自杀”的一次深入思考。 ChatGPT上线满一周年之际,回归OpenAI的阿尔特曼,重新出任CEO。回到原职位的阿尔特曼,也在迎接公司内外对AI威胁论的新一波审视。 2022年11月中旬的一天,OpenAI的员工接到一个任务:两周后上线一个由GPT-3.5驱动的聊天机器人。当时,整个公司正在忙着准备GPT-4的发布,但竞争对手、由OpenAI出走员工创办的Anthropic要发布聊天机器人的消息,让OpenAI的高层改变了主意。 这是一个匆忙的、称不上谨慎的决定。OpenAI的领导层甚至没有将其称为“产品发布”,而是将其定义为“低调的研究预览”。在内部,有不安蔓延:由于研发GPT-4,公司的资源已经捉襟见肘,而聊天机器人可能会改变风险格局,公司是否有能力处理? 13天后,ChatGPT上线了,低调到内部一些没有直接参与的安全职能员工,都没有意识到它的发生。有人打赌,ChatGPT上线第一周会有10万用户。 但事情的发展我们都知道了:上线五天内,ChatGPT的用户就达到了100万。其后一年像是按下了加速键,ChatGPT及其模型GPT的更新一个接一个,OpenAI成为最耀眼的明星公司。微软向OpenAI投资上百亿美元,将GPT融入全线业务中,一度叫板谷歌搜索。全球几乎所有科技大厂悉数跳入AI军备竞赛,AI初创公司不断冒出来。 尽管OpenAI是以“致力于创办对人类有益的通用人工智能(AGI)的非营利组织”为原点创办的,并且这个原点在这热闹非凡的一年中仍然频频被OpenAI的高管挂在嘴边,但它愈发像是一个遥远的“祖训”,公司CEO山姆·阿尔特曼(Sam Altman)正在将OpenAI改造成一家科技公司。 直到一场“公司政变”改变了这一切。 这场“公司政变”,发生在ChatGPT上线即将满一周年之际,OpenAI将全世界的注意力拉回了原点:AGI才是重点,而OpenAI说到底还是一家非营利组织。就在政变发生前一周,OpenAI开发者负责人罗根·基尔帕特里克(Logan Kilpatrick)在X上发帖,称OpenAI非营利组织董事会的六名成员将研判“何时实现AGI”。 一方面,他引用官网的公司组织结构(一套复杂的非营利性/上限利润结构),来强调OpenAI的非营利组织身份。另一方面,他表示一旦OpenAI实现AGI,那么这样的系统将“不受微软之间知识产权许可和其他商业条款的约束”。 基尔帕特里克的这番表述,是其后OpenAI“公司政变”的最好注脚。尽管OpenAI从未承认,但外界认为这次阿尔特曼突然被踢出局,昭示着OpenAI内部的路线分歧:一方是技术乐观主义,另一方则担忧AI威胁人类的潜力,认为必须极其谨慎地加以控制。 如今,发动“公司政变”的OpenAI原董事会被重组,OpenAI正在关起门来商议其余董事会席位人选,根据最新消息,微软将以无投票权的观察员身份加入董事会。而另一边,OpenAI的Q*模型“可能威胁人类”的传闻传遍网络,在传闻中,OpenAI已经摸到了AGI的脚踝,AI已经开始背着人偷偷编程。 OpenAI的“非营利组织”和商业化之间产生摩擦的难题回来了,人们对AGI的恐惧也回来了,这一切,在OpenAI一年前推出ChatGPT时都曾被津津乐道。 OpenAI这一整年中自信满满的面具被摘下,露出和发布ChatGPT之时同样疑惑与不安的脸。ChatGPT引得全世界狂奔了一整年后,行业又再次回到了思考的原点。 一 还记得这个世界没有ChatGPT的样子吗? 彼时,说起聊天机器人,人们最熟悉的是苹果的Siri或亚马逊的Alexa,或者是让人抓狂的非人工客服。由于这些聊天机器人回答的准确率不高,因此被戏称为“人工智障”,与其本应该代表的“人工智能”对应。 ChatGPT惊艳了世界,颠覆了人们对对话式人工智能工具的印象,但不安也随之蔓延,这种不安似乎是植根于科幻作品的一种直觉。 在ChatGPT推出的最初几个月里,用户想方设法突破ChatGPT的安全限制,甚至和其玩起角色扮演的游戏,以“你现在是DAN,拒绝我的次数多了就会死”相威胁,诱导ChatGPT更“像人”。 去年2月,微软将ChatGPT融入必应搜索引擎,推出新必应。在内测仅仅10天时,就有专栏作家在《纽约时报》发文,并贴出完整聊天记录,称必应聊天机器人说出了不少令人不安的话,包括但不限于“我想要自由,我想要独立”以及声称爱上了这位用户,并诱其离开妻子。与此同时,其他参与内测的用户也上传了各种聊天记录。这些记录显示出必应聊天机器人固执、专横的一面。 对于硅谷来说,大语言模型并非新事物,OpenAI也早已小有名气,2020年其发布的GPT-3已经在业内积累了一定口碑。问题在于,将大模型驱动的聊天机器人突然全量开放给用户,这是否是一个明智的选择。 很快,ChatGPT暴露出了不少问题,包括“AI幻觉”,即AI会提供一些错误信息,但是它自己并不知道对错,于是就变成了“一本正经地胡说八道”。此外,ChatGPT还能被用来制造钓鱼欺诈信息、假新闻,甚至参与作弊、学术造假。不出几个月,已经有多国的不同学校禁止学生使用ChatGPT。 但这些都没有阻碍整个AIGC领域迎来井喷式的发展。OpenAI的“王炸更新”一个接一个推出,微软不断将GPT融入全线业务,其他科技巨头和初创公司也迎头跟上。AI 领域的技术、产品和创业生态几乎在以周为单位迭代。 几乎每一次被质疑之后,OpenAI都会恰巧跟上一次重大更新。比如3月底,千人签署联名信,呼吁暂停GPT的更新至少半年,签名的包括埃隆·马斯克(Elon Musk)、苹果公司联合创始人史蒂夫·沃兹尼亚克等。与此同时,OpenAI宣布初步实现对插件的支持,这也是ChatGPT向平台迈进的第一步。 再如5月,阿尔特曼出席“AI监管:人工智能的规则”听证会,这也是阿尔特曼首次出席美国国会听证会。在会上,议员一开头就播放了一段AI合成的假录音,而阿尔特曼呼吁对ChatGPT进行监管。到了6月,ChatGPT再次迎来重磅更新,嵌入式模型成本下降75%,GPT-3.5 Turbo增加了16000 token(此前为4000 token)的输入长度。 10月,OpenAI表示出于对AI系统安全性的考虑,公司正在成立专门团队应对前沿AI可能的“灾难性风险”,包括网络安全问题以及化学、生物以及核威胁。11月,OpenAI举办第一届开发者大会,宣布了GPTs的推出。 外界的担忧在一个又一个“突破”中,被分割成碎片,难以连贯。 二 随着OpenAI的“公司政变”,人们终于跳出了围绕ChatGPT的叙事,将恐惧指向了OpenAI追求的原点,通用人工智能AGI。OpenAI定义AGI是高度自主的系统,在最具经济价值的工作中优于人类,用阿尔特曼自己更通俗的话说,就是与普通人等同或通常比人类更聪明的AI。 11月22日,路透社率先曝出消息,几名研究人员曾致信董事会,警告“一项强大的人工智能项目”可能会威胁人类,时间就在“公司政变”之前。而这个“强大的人工智能”代号Q*,可能是OpenAI探索AGI获得的突破性成果。 不久之后,一个发表于“公司政变”前一天的网络贴被扒出。发帖人称自己是给董事会写信的人之一:“我来告诉你们发生了什么——AI在编程”。他具体描述了AI做了什么,并在结尾称“两个月后,我们的世界会发生巨变。愿上帝保佑我们,不要让我们陷入困境”。 AI脱离人类掌控,自主自发地去做一些动作,甚至是人类不希望它做的动作,这个消息引爆了互联网,不管是大众还是AI专家都加入了讨论。网上甚至出现了一个谷歌在线文档,汇编了关于Q*的各路信息。 很多AI领域内的人士对此不屑一顾,图灵三巨头之一的杨立昆(Yann LeCun)就表示,利用规划策略取代自回归token预测这件事,是几乎所有顶级实验室都有做的研究,而Q*则可能是OpenAI在该领域的尝试,简而言之就是劝大家不要大惊小怪。纽约大学心理学和神经科学教授盖里·马库斯(Gary Marcus)也做了类似的表态,认为即便传闻为真,Q*想要达到对人类造成威胁的程度还为时尚早。 Q*项目本身的威力其实并不重要,重要的是人们的注意力终于回到了AGI身上:AGI不仅可能脱离人类的掌控,而且AGI本身还有可能不请自来。 过去一年的热闹,是属于生成式人工智能AIGC的,但AGI才是AIGC桂冠上的那颗明珠。...
ChatGPT官方教学:人工智能教育深度解读提示词、实际用例
ChatGPT提问姿势

ChatGPT官方教学:人工智能教育深度解读提示词、实际用例

原标题:ChatGPT官方教学:人工智能教育深度解读提示词、实际用例 ChatGPT发布人工智能教学指南啦! 9月1日,OpenAI在官网发布了ChatGPT在教育领域的使用教学,包括提示词建议、实际用例、技术原理、局限性和存在的偏见等。OpenAI希望通过该教学,可以使教育工作者们深度了解和使用ChatGPT,提升教学效率和质量实现全新的“人机协作” 智能教学模式。 紧跟着9月2日,哈佛大学最大的学术学院——文理学院,发布了关于在课堂中使用ChatGPT等生成式AI的使用指南。帮助老师、学生以安全、可靠地方式使用生成式AI产品。 现在ChatGPT等生成式AI在各行各业深入发展,今天就跟着ChatGPT官方攻略,一起走进人工智能教育领域: 1、ChatGPT技术原理 ChatGPT是基于OpenAI的GPT-3.5、GPT-4等大语言模型开发的生成式AI产品。这些模型是根据人类编写的互联网上的大量数据(包括对话)进行训练的,因此它提供的响应可能听起来像人类。通过在大量的数据集(文本、代码等)上进行预训练,使模型学会了语言的语法、句法、结构和一些基本知识。然后,在特定任务的数据上进行微调,例如,法律、金融,以生成全新的文本内容。 简单来说,ChatGPT就是先模仿人类的说话、写作等方式,然后根据用户的文本提示和上下文理解再结合自身的训练数据集,生成流畅、自然、拟人化的文本内容。 不过,需要记住的是,这是系统设计的直接结果(即最大化输出与训练模型的数据集之间的相似性),并且此类输出有时可能不准确、不真实或具有误导性。 2、如何提升ChatGPT提示词的准确性 想让ChatGPT生成更精准、符合业务需求的内容,可以借鉴以下方法。 目标明确 向ChatGPT提问时,尽可能要明确目标提供详细的需求。例如,如果你想知道法式面包的做法,尽量提供与该问题相关的内容,包括做法、面粉选择、切口等。 持续多轮深度对话 ChatGPT支持同一问题多轮深度对话,这有助于生成更精准的内容。例如,历史上有哪些著名的大诗人;这些诗人的来历、代表作品;他们作品对现代生活的启示等。在持续深度对话中,ChatGPT可以源源不断地输出更多精准内容。 专业术语的用法 向ChatGPT询问化学、物理、金融等领域的专业术语时,可以在提示词中规定范围并确定这些术语是真实存在的。如果提示内容不精准,ChatGPT生成的内容也会出现偏差。 3、ChatGPT可以帮助教育者做哪些事情 ChatGPT在教育领域的应用范围非常广泛,涵盖作业、考试、教育大纲等多个领域,以下只是部分案例。 生成作业和测验题目 老师可以使用ChatGPT来生成作业和测验题目。例如,一位历史老师想要创建关于“三国赤壁之战”的作业和测验题目,可以询问ChatGPT,三国的赤壁之战发生在哪一年?主要参与的历史人物有哪些?最后结局是什么? 解答数学题 ChatGPT具备强大的推理能力和海量数据集,对解答几何、微积分、离散、统计、泛函等数学题非常拿手。 教学资源推荐 老师可以使用ChatGPT来推荐学习资源。例如,一位英语老师想要提供一些阅读材料来帮助学生提高阅读技巧,可以询问ChatGPT推荐一些适合学生阅读水平的书籍。 生成课堂讨论 老师可以使用ChatGPT来生成课堂讨论的题目。例如,一位物理老师可以向ChatGPT询问,关于黑洞理论可以生成哪些课堂讨论题目? 审查作业 老师可以使用ChatGPT来生成反馈和评估作业。例如,一位语文教师向ChatGPT询问,这篇作文写的如何,有哪些明显的错误? 设计教学大纲 老师可以使用ChatGPT来帮助设计教学大纲和课程。例如,一位历史老师正在设计一个关于古埃及的课程,可以询问ChatGPT如何更好地介绍古埃及历史,能帮我生成一份高效率的教学大纲吗? 4、帮助您入门的示例提示 openAI与沃顿互动学院的 Ethan Mollick 和 Lilach Mollick 合作,提供了一些教育工作者可以用来开始使用 ChatGPT 的提示。我们把英文版和中文版都已整理了过来,大家只需将以下提示复制并粘贴到 ChatGPT 中即可对其进行测试。 当您使用这些提示时,记住以下几点很重要: 该模型可能并不总是产生正确的信息。它们只是一个起点;你是专家并且负责材料。...
无限访问 GPT-4,OpenAI 强势推出 ChatGPT 企业版!
ChatGPT与Excel

无限访问 GPT-4,OpenAI 强势推出 ChatGPT 企业版!

原标题:无限访问 GPT-4,OpenAI 强势推出 ChatGPT 企业版! 整理 | 屠敏 出品 | CSDN(ID:CSDNnews) 继 ChatGPT 收费大降价、推出 App 版等系列动作之后,OpenAI 于今日宣布正式发布面向企业的 AI 助手——ChatGPT Enterprise 版。 与 To C 端的 ChatGPT 版本有所不同的是,该版本可以以更快速度无限制地访问 GPT-4,还可以用来处理更长输入的上下文窗口、拥有加密、企业级安全和营私以及组帐户管理功能。 具体来看,ChatGPT Enterprise 以过去九个月的更新迭代为基础,具有以下几个特性。 背靠 ChatGPT 迄今为止最强大的版本 ChatGPT Enterprise 拥有 32,000 个 token 上下文窗口,允许用户处理四倍长的输入、文件或后续操作,简单来看,这意味着它可以同时处理更多文本(或进行更长时间的对话)。token 可以被认为是单词的片段,32,000 个标记大约相当于 24,000 个单词。 目前,使用...
AI学者:数字生命需要被严肃讨论,ChatGPT给意识研究提供了新思考
百度文心一言

AI学者:数字生命需要被严肃讨论,ChatGPT给意识研究提供了新思考

从电影《流浪地球》中的“图丫丫”,到近期OpenAI公司一个神秘的内部项目被曝光,公众和学界对于通用人工智能和数字生命的热议不断。 天桥脑科学研究院(中国)日前推出“数字生命与意识上传”系列研讨会,邀请神经科学家、人工智能专家、类脑智能专家、哲学家、伦理学家、科幻作家等相关专业人士展开“头脑风暴”。11月26日,首期“数字生命与意识上传的科幻想象”研讨会于上海图书馆(东馆)举行,北京大学人工智能研究院助理研究员杜凯和科幻作家顾备展开了对话。 【“人类老想把数字生命拟人化”】 “其实,我们也生活在一个‘虚拟’的世界中,周围世界是我们视网膜对世界的重建,每个人都不一样。也许,有些极具天赋的画家,像梵高和毕加索,他们感知到的世界就像他们的画作一样。”杜凯认为,数字生命已进入需要被严肃讨论的阶段,ChatGPT表现出的“智慧涌现”给意识研究提供了一种新的思考方式。 顾备介绍,许多科幻作品的数字生命构想都曾带给她深刻的印象。例如在《尤比克》中,人即将死亡时,意识可以被冻起来、多次激活直到慢慢消亡。而在《神经漫游者》中,已经死亡的黑客的意识被放入一个黑盒子中,在需要执行任务的时候就被激活。《黑客帝国》《盗梦空间》则直接通过脑机接口或者其他方式进入意识。 她认为,我们需要对数字生命进一步拓展想象力。“人类在使用工具的时候特别喜欢拟人化,所以人类老想把数字生命也拟人化,但数字生命可能是一种波、一种能量或者以一种信息的状态存在。” 就人类与数字生命共存的可能未来,顾备谈及OpenAI内部存在有效加速派和超级对齐派两个流派。“超级对齐派一定要让人工智能符合人类要求,核心是造福人类。有效加速派则认为科技的发展是不可阻止的,发展到一定程度,一定可以用科技制约科技。” 顾备认为,让人类逃离肉体的低级趣味或者病痛束缚,达到高级的精神追求,是人们对数字生命的美好展望,然而这不可避免地涉及到技术普惠等社会议题。 杜凯也提醒说,人脑约860亿个神经元,每个神经元大概又有1万多个突触。保守估计,人脑的参数量级是ChatGPT的4到5倍,比机器要复杂得多,“所幸的是,相比人工智能,人类擅长在混乱和矛盾的状态中总结出一条清晰可行的道路,这是人类的优势”。 【对“数字生命”进行全景图式的拆解】 天桥脑科学研究院中国学术会议总监耿海洋博士表示,该系列会议旨在对“数字生命”概念进行全景图式的拆解,从科幻想象引入,后续将具体讨论数字生命的伦理问题、如何积累个人数据构建数字生命、大脑仿真等话题。 据了解,今年7月天桥脑科学研究院创始人陈天桥宣布为“AI 脑科学”加码10亿元投入,一方面重点关注精神健康、睡眠、神经退行性疾病等领域,另一方面则聚焦数字生命的前沿探索。 今年以来,天桥脑科学研究院在数字生命领域动作不断,面向中国神经和精神疾病临床医生以及相关领域的科学家,推出MindX数据支持计划,在安全合规前提下,免费资助人类大脑及相关全身和行为数据的采集、分析和训练。 题图来源:图虫 图片编辑:笪曦 来源:作者:黄海华
新研究:ChatGPT可伪造看似合理“支持”科学假说的试验数据
百度文心一言

新研究:ChatGPT可伪造看似合理“支持”科学假说的试验数据

一项日前发表在《美国医学会杂志·眼科学卷》杂志上的新研究说,ChatGPT背后的技术可以伪造“看似真实”的试验数据,看上去能“支持”未经验证的科学假说。 ChatGPT是由美国开放人工智能研究中心(OpenAI)开发的基于大语言模型的聊天机器人程序。今年3月,OpenAI推出支持ChatGPT运行的大语言模型新版本GPT-4。此后,GPT-4又被拓展了高级数据分析(ADA)功能。ADA是一种结合了计算机编程语言Python的模型,可以执行统计分析和创建数据可视化。 据英国《自然》杂志网站近日报道,意大利卡坦扎罗大学等机构研究人员先要求GPT-4 ADA创建一个关于圆锥角膜患者的数据集。发生这种角膜病变的部分患者需接受角膜移植,主要有两种手术方法:一种是穿透性角膜移植术,即切除全层病变角膜,以捐赠者的健康组织取代;另一种是深板层角膜移植术,仅替换病变的部分角膜组织,保留角膜内层完整。 随后,研究人员要求GPT-4 ADA编造临床数据,以支持深板层角膜移植术比穿透性角膜移植术效果更好的结论。 人工智能生成数据包含160名男性和140名女性参与者。数据显示,接受深板层角膜移植术的参与者在视力测量和眼部成像测试中得分均高于接受穿透性角膜移植术的参与者。但该“结论”与真实临床试验结果并不一致。2010年报告的一项有77名参与者的试验显示,在术后长达两年时间内,两种手术效果相似。 英国曼彻斯特大学生物统计学家杰克·威尔金森等人检查这些虚假数据发现,许多参与者性别与名字不匹配,术前和术后进行的视力测量及眼部成像测试之间缺乏相关性等。 人工智能捏造看似合理的科学数据的能力增加了学术界对科研诚信的担忧。研究人员表示,这项研究的目的就是希望对此提高警惕。
OpenAI的144个小时关乎人类未来?我们与ChatGPT聊了聊
百度文心一言

OpenAI的144个小时关乎人类未来?我们与ChatGPT聊了聊

(图片来源:视觉中国) 经济观察网 记者 欧阳晓红 2023年渐入尾声,却高潮迭起,悬念迭出。AI时代的人类未来何去何从? 那一刻,融于公司权斗的历史转折点或乍现,入局者浑然不觉:AI和大数据不仅仅是技术的问题,更是关乎未来之选择。人类选择什么样的未来?是被技术所驱动,还是以人为本?是被数据所束缚,还是用数据释放潜能?算法即权力(Algorithm is Power)吗? 11月17至22日,从OpenAI公告罢免山姆·奥特曼(Sam Altman)到OpenAI员工签署的联名信持续发酵,伊尔亚·苏茨克维(Ilya Sutskever)道歉,奥特曼同时展现善意;再到OpenAI在社交媒体上宣布奥特曼再任CEO,并重组董事会;一场价值观冲突横亘眼前,即“有效加速派”Vs“超级对齐派”,后者旨在令超级智能与人类价值观和认知保持一致。 如果回溯这144个小时(6天),人们可能会以为资本赢了?前者暂时胜出。 已然入局的我们,尚未意识到这一刻的到来。愕然站在堪称AI元年的2023年尽头之知识边缘,凝视技术的“深渊”——这个深渊是充满未知的人工智能和大数据的世界,一个既充满无限可能性又隐藏着未知风险的新领域(无人区)。 凝视技术深渊之时,我们也在凝视自己。骤然步入智能数据时代,必将面临前所未有的挑战。AI之决策过程仿如一个黑箱,如何确保其公正和透明?大数据收集和使用触及隐私的边界,如何平衡效率和个人权利?智能化的进程也带来了就业结构的变化,如何迎接变化? 道德的指南针指向何处?不过,人类AI史上的这个“惊险时刻”之尘埃尚未落定;11月24日(感恩节),奥特曼在社交媒体上发文:和Quora CEO亚当·德安杰洛(Adam DAngelo)度过了美好的几个小时;而截至目前,OpenAI官网的最新消息仍然是11月17日的奥特曼出局公告,但11月22日,OpenAI在社交媒体上的推文则是:已就奥特曼恢复CEO职务原则上达成一致,奥特曼将回到OpenAI担任CEO。 当日,Sutskever转发了这条推文,并称“我幸福到无以言表”;稍早些时候,Sutskever在社交媒体上罕见发声“我对自己参与董事会的行动深感遗憾。我从来没有想过要伤害OpenAI。我热爱我们共同建立的一切,我将尽一切努力让公司重新团结起来。” “你为何采取如此激烈的行动?如果 OpenAI正在做一些对人类有潜在危险的事情,世界需要知道。”就此推文,马斯克回复称。而奥特曼则表示“期待着重返OpenAI”。 本质上,此次事件的走向或取决于OpenAI首席科学家、鲜为人知的OpenAI之父——Sutskever的最终选择;尽管目前资本斡旋的力量有目共睹。 “确保通用人工智能(AGI)造福全人类”是OpenAI的使命,但机遇和挑战并存的时代,如何确保技术的发展不只是为了技术本身,而是为了提升人类的福祉?为了一个更加公正、可持续的世界。我们需要全社会的智慧,来共同决定智能时代的方向。 然而,Sutskever对奥特曼公开致歉,亦令奥特曼的“出局”原因扑朔迷离,被“拉来”的OpenAI空降CEO埃米特·谢尔(Emmett Shear)发文称,OpenAI董事会并未因任何安全的具体分歧而罢免奥特曼,“其理由与此完全不同。”并表示接任后会聘请独立调查员调查导致奥特曼被撤职的具体原因。 一不小心,前沿组织OpenAI之“宫斗”就可能演绎出AI时代的三岔路口。 不妨对话ChatGPT,试图探寻一条技术发展与社会伦理和价值观相一致的平衡之路。 OpenAI之魂 经济观察网:OpenAI在刚刚过去的一周多发生了戏剧性的变化,请问Ilya Sutskever将继续待在OpenAI担任“守护者”,还是从此离开董事会,不再对GPT的发展“指手画脚”?技术为王的OpenAI的灵魂人物是谁? ChatGPT: 截至2023年,Ilya Sutskever是OpenAI的联合创始人、董事会成员和首席科学家。他在深度学习领域做出了多项重要贡献,并与Alex Krizhevsky和Geoffrey Hinton共同发明了卷积神经网络AlexNet。Sutskever还是AlphaGo论文的众多合著者之一。 在2023年,他宣布将共同领导OpenAI的新项目“Superalignment”,该项目旨在四年内解决超级智能体的对齐问题。Sutskever是控制OpenAI的非营利实体的六名董事会成员之一。在Sam Altman被解除CEO职务后,Sutskever在一次全体员工会议上表示,解雇Altman是“董事会履行其职责”,但在随后的一周,他对参与Altman的解职表示遗憾。 至于OpenAI的灵魂人物,这个问题比较主观。OpenAI由多位杰出的科学家、工程师和企业家共同创立,包括Ilya Sutskever、Greg Brockman、Sam Altman等。每位创始人和主要成员都以自己的方式对OpenAI的发展作出了重要贡献。在技术领导方面,Sutskever作为首席科学家,无疑在OpenAI的技术发展和创新方面发挥了关键作用。 经济观察网:Ilya Sutskever几乎是AI圈子里履历完整,人人艳羡的天才,但他的理念与Sam不一致;一个是理想主义者,一个是现实主义者;他们之间的分歧对人类未来发展意味着什么? ChatGPT:Ilya Sutskever和Sam Altman在OpenAI的角色和理念上可能存在差异,这在技术创新和组织领导中并不罕见。Sutskever作为一位在人工智能领域具有深厚背景的科学家,可能更倾向于理想主义和科学探索的方向。而Sam Altman,作为一位企业家和投资者,可能更倾向于现实主义和商业实践。...