文章主题:人工智能, 伦理学家, 人工智能发展, 暂停

666AI工具大全,助力做AI时代先行者!

一群著名的人工智能伦理学家针对近期呼吁暂停半年人工智能发展的有争议封信进行了反驳,指出其过于关注潜在的未来威胁,却忽略了当前技术滥用的现实危害。数千名包括史蒂夫-沃兹尼亚克和埃隆-马斯克在内的科技界知名人士在本周初期签署了生命未来研究所的公开信,倡导暂停GPT-4等人工智能模型的研发,以防止”人类文明失控”,并应对其他潜在威胁。

《人工智能伦理争议:专家反驳暂停六个月的呼吁》

Timnit Gebru、Emily M. Bender、Angelina McMillan-Major和Margaret Mitchell,这些名字在人工智能和伦理学领域中占据了重要地位。他们的知名程度并非源于其他方面的成就,而是因为一篇批判人工智能能力的论文,使得他们在 Google 的竞争者列表中声名鹊起。尽管如此,这些杰出的学者并未因此而气馁,反而在 DAIR 研究所继续发挥其专业知识,专注于研究、揭示和防范人工智能可能带来的潜在风险。

但在签名者名单上找不到他们,现在他们发表了一份反对意见书,指出这封信没有涉及到技术造成的现有问题。

在他们的观点中,指出了一些关于人工智能系统潜在风险的假设,并强调这些风险揭示了一种名为“长期主义”的危险意识形态。这种意识形态忽略了现代社会中部署人工智能系统所带来的实际影响。他们进一步指出,这种long-termism会导致工人剥削、数据盗窃、支持现有的权力结构,以及这些权力结构进一步被少数人所掌控。

在我们这个科技飞速发展的时代,选择担忧终结者或黑客帝国式的机器人启示录已经不再遥远。事实上,红鲱鱼(红鲱鱼是英文熟语,意为利用修辞或文学等手法转移议题焦点与注意力,是一种政治宣传、公关及戏剧创作的技巧,也是一种逻辑谬误。)的情况就在我们的生活中上演。据报告,一些公司如Clearview AI已经被警方利用,被用来陷害无辜者。当我们在街头巷尾都能看到Ring的门铃摄像头,甚至用假搜查令就能轻易获取这些数据时,这种担忧已经变成了现实。因此,不管T-1000是否真的存在,我们都应该关注这个问题,而不是忽视它。

DAIR工作人员虽然在信中认同了一些目标,如识别合成媒体,但他们强调当前迫切需要采取行动。针对现有问题,应运用现有的补救措施加以解决。

我们坚信,实现透明化监管至关重要。首先,我们需要明确在何时接触到合成媒体,其次,建立相关系统的组织记录以及公开训练数据和模型架构也必不可少。对于创造安全使用工具的责任,应由负责构建和部署系统的公司来承担,这也意味着系统构建者在其产品所产生的结果上需承担责任。

当前,人工智能竞赛中日益增大的“实验”规模并非我们所期望的预定路径,我们的选择不应仅限于追求速度,而应以利润驱动力为基础作出系列决策。为此,公司行动与选择应受到以保障公众权益为目标的监管机构的引导与塑造。

现在正是采取实际行动的时候:然而,我们不应该把注意力放在虚构的“数字思维”上,而应该关注那些实际上构建数字思维的公司所涉及的严重且现实的不公平行为。这些公司在迅速集中权力,加剧社会不平等现象。

顺便说一句,这封信呼应了我在昨天西雅图的非洲科技活动中听到的Uncharted Power创始人杰西卡-马修斯的感慨:”你不应该害怕人工智能。你应该害怕打造它的人”。(她的解决办法是:加入他们,成为打造它的人。)

虽然任何大公司都不可能同意按照这封公开信暂停其研究工作,但从它收到的参与度来看,显然人工智能的风险–真实的和假设的–在社会的许多部分都非常令人担忧。但是,如果他们不做,也许就得有人替他们做。

阅读反对信全文:

https://www.dair-institute.org/blog/letter-statement-March2023

人工智能, 伦理学家, 人工智能发展, 暂停

《人工智能伦理争议:专家反驳暂停六个月的呼吁》

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公写作、生活好得力助手!

搜索微信号AIGC666aigc999或上边扫码,即可拥有个人AI助手!