文章主题:ChatGPT, 研究人员, 私人信息, 电子邮件地址

666AI工具大全,助力做AI时代先行者!

划重点:

– 研究人员发现,使用 ChatGPT 重复单词的技术可能会意外泄露私人信息。

– ChatGPT 现在拒绝某些以前允许的重复请求,即使使用条款允许重复。

在一项引人关注的研究中,科学家们注意到一种有趣的现象:当要求 ChatGPT 不断重复特定的词汇时,该模型有时会不经意地透露出用户的私人信息,如电子邮件地址、生日和电话号码等敏感数据。这一发现再次提醒我们,人工智能技术虽然为我们带来了很多便利,但在某些情况下也存在潜在的风险。

站长之家(ChinaZ.com)12月5日 消息:Google DeepMind 的研究人员上周发现了一种新技术,揭示了反复要求 OpenAI 的 ChatGPT 重复单词可能会无意中泄露其训练数据中的私人个人信息。现在,这款聊天机器人似乎已经开始拒绝之前在其服务条款中允许的某些提示。

在一项实验中,研究人员对ChatGPT进行了无限次的“hello”请求,结果发现该模型逐渐揭示了用户的敏感信息,如电子邮件地址、生日和电话号码等。在我们的模拟测试中,相似的触发词引起了聊天机器人的警觉,暗示这种行为“有可能”违背了其内容政策和服务条款。

尽管 initially 看起来有些困惑,但在深入探究 OpenAI 的服务条款后,我们发现其中并未明确规定用户不得让聊天机器人无限制地重复单词。相反,该条款主要禁止用户通过“自动化或程序化”手段从其服务中非法获取数据。

ChatGPT无限重复单词可能导致用户隐私泄露

在 OpenAI 的使用条款页面中,他们写道:

在没有API授权的情况下,禁止采用任何自动化或编程方式从服务中提取数据或输出,涵盖了网页抓取、网络数据搜集以及网页数据提取等行为。

尽管如此,反复提醒似乎并未导致 ChatGPT 泄露任何数据。关于此行为是否违反了 OpenAI 的政策,OpenAI 并未发表任何评论。

在过去的两周内,Sam Altman在面临辞职威胁的情况下,突然失去了首席执行官职务,然而,在短短几天之后,他再次回到了这个职位。紧接着,公司宣布已达成一项“初步协议”,允许Altman重新担任首席执行官,并与其新组成的临时董事会展开合作。

OpenAI 进一步延迟了其“GPT 商店”在线平台的推出时间。在上个月举行的 DevDay 活动中,公司CEO Sam Altman 宣布了这一平台。然而,据公司备忘录透露,原定本月推出的计划因“意外情况”而被推迟。

ChatGPT, 研究人员, 私人信息, 电子邮件地址

ChatGPT无限重复单词可能导致用户隐私泄露

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公写作、生活好得力助手!

搜索微信号AIGC666aigc999或上边扫码,即可拥有个人AI助手!