ChatGPT时代,问⾃⼰25个问题

作者: Sean Captain

来源: WSJ

发布日期: 2023-04-22 09:29:01

本文探讨了在ChatGPT时代,我们需要问⾃⼰的25个关于AI的问题,涵盖了从AI创作的归属、AI的道德使用、AI的情感模拟、AI的隐私保护等多个方面,旨在引发对AI技术未来发展的深入思考。

2022年,ChatGPT、Midjourney等AI⼤模型的问世,让AI开始展现出更多真正的能⼒和价值,看似神奇的机器⼈开始⽣成图像、回答问题,甚⾄写⽂学作品。但与所有新⼯具⼀样,我们必须弄清楚⼈⼯智能最适合⽤于哪些任务,以及如何在不对社会造成危害的情况下使⽤它。当我们还在努⼒试图弄清楚这项技术最初能做什么时,就已经显得有些棘⼿了。

Sean Captain希望,通过与朋友、同事和⼀些AI⾏业专家的讨论,可以确定AI为各个领域的各个⼈群带来的或即将带来的⼀些最棘⼿的问题。尽管这些问题没有正确或错误的答案,但能够让我们思考AI将会如何改变⼏乎所有的事情。基于此,Sean Captain在WSJ发⽂,整理出了“ChatGPT时代,你需要问⾃⼰的25个问题”。

1. 如果你借助AI为⼀些项⽬或产品提出了不错的建议,可以将其认为是你⾃⼰的想法吗?如果你提出了原始问题,答案是什么?如果你只是简单修改了AI⽣成的内容,答案是什么?如果你承认AI在其中起到的关键作⽤,答案⼜是什么?

2. 你想知道你喜欢的绘画、歌曲、⼩说或电影是否由AI产⽣的吗?如果你知道创作者是⼀台机器,你还会喜欢这些作品吗?AI⽣成的艺术作品是否应该被允许参加艺术⽐赛?

3. 如果⼀个AI剽窃了⼀个艺术家的作品,⽽且有⼈使⽤了这个作品,谁应该受到指责?如果⽤户不知道AI进⾏了剽窃,你的答案是什么?他们⼜如何证明⾃⼰不知道呢?

4. 是否应该把AI⼯具免费提供给买不起的⼈群,或者提供⼀些补贴?如果不这样做,会不会使那些⽆法获得这些⼯具的⼯⼈和学⽣处于不利地位?

5. 与⼈类的思维不同,机器学习是⼀个“⿊盒⼦”,⽆法解释⾃身发⽣了什么。即使机器学习在某些⽅⾯优于⼈类,我们⼜是否应该更信任它,⽽不是专业⼈⼠(如医⽣),但他们可以证明⾃⼰的决定是正确的。

6. 假设AI在⽣死攸关的决策(如驾驶或医疗诊断)中⽐⼈类准确得多,但在某些情况下(如不能识别⼈⾏道上的⼉童),AI会更容易失败。在这种假设下,使⽤AI是合乎道德的?因为总的来说,会有更多的⼈得到拯救?

7. 虽然当前的AI是没有情感的,但它可以看起来是有的。与这样的AI建⽴友谊会不会太天真?或者令⼈⽑⻣悚然?如果发展为⼀段恋爱关系呢?如果AI真的有情感,答案是什么?

8. 你如何为使⽤ChatGPT这样的聊天机器⼈划定道德底线?可以让它们写⼀封电⼦邮件来帮助你安排会议吗?向你的客户进⾏推销呢?在⽹上约会应⽤程序中替你聊天呢?给正在经历抑郁症的朋友写信呢?

9. ⽬前还不可能对AI⽣成的内容进⾏版权保护。需要保护吗?如果需要,谁应该拥有版权:⽤户、AI模型提供者、训练AI模型所⽤数据的归属⼈?所有⼈?

10. 如果AI系统在驾驶汽⻋⽅⾯明显好于⼈类,那⼈类⾃⼰开⻋是否是不道德的?因为这增加了事故的⻛险,每年可能会导致数以万计的⼈牺牲。如果AI只是略胜⼀筹,但总的来说,每年仍能挽救成千上万的⽣命呢?

11. AI通过从错误中学习来改进⾃⼰,这些错误往往包括对边缘化群体的偏⻅或仇恨。AI提供者是否有责任在发布其产品之前根除这些偏⻅?如果他们没有这样做,受影响的群体是否应该起诉这些公司?

12. 鉴于AI的潜在危害(如不准确或有偏⻅),对于重⼤的⼈⼯智能新进展,是否应该像药物上市前⼀样,有⼀个政府评估和批准程序?如果这会⼤⼤推迟新AI⼯具的发布,⼜该怎么办?

13. 如果AI在公司内部⽣成包含种族主义、性别歧视、反同性恋或其他辱骂性语⾔的信息,员⼯可以起诉吗?如果可以,他们应该起诉谁?是他们的雇主?还是技术提供者?

14. 研究表明,⼀些由AI驱动的任务,如评估求职者,更容易产⽣歧视。然⽽,使⽤AI也可以让更多的求职者得到考虑,因为HR可以⼈⼯阅读的求职简历有限。那么,你希望⼼仪公司使⽤AI来⾯试吗?

15. 为了保护隐私,在执法过程中限制AI监控,如⾯部识别,即使这意味着更少的罪犯将被抓获或定罪,这是否合乎道德?

16. AI可以创造模仿逝者的聊天、⾳频和视频。与这些AI对话会得到安慰,还是会延⻓失去亲⼈的痛苦,让他们停滞不前?如果聊天机器⼈有缺陷,它们是否会扭曲我们对这个⼈真正身份的理解?

17. 如果AI能够扫描⼤量的健康记录,它可能会发现新的医疗⽅法。如果我们的个⼈健康记录有可能改善或拯救数百万⼈的⽣命,那么是否应该为此⽽提供我们的个⼈健康记录?在这种情况下,我们将如何保护隐私?

18. 近年来,AI聊天机器⼈治疗师⼀直在激增,但相关app不受医疗隐私法的监管,且⼀些已被证明会与⼴告商等第三⽅分享信息。鉴于此,你会把你的秘密告诉AI吗?如果你确信AI会根据你的要求删除你所说的任何内容,⼜会怎样?

19. 以严厉或辱骂的⽅式对待⼀个聊天机器⼈或虚拟助⼿,即使它们没有情感,可以吗?如果AI可以假装拥有情绪,⼜是否可以?对待聊天机器⼈的坏⾏为,是否会“怂恿”我们对真实的⼈做出更恶劣的⾏为?

20. 假设有可能创造出⼀个有情感的AI,社会是否应该⾸先制定⼀个关于劳动条件、⾔论⾃由、隐私权、甚⾄死亡权等问题的权利法案?是否应该由有情感的AI⾃⼰来设计或修改?

21. 聊天机器⼈写了⼀篇博⼠论⽂,学⽣只是检查并对作品进⾏修改,这是否合乎道德?学⽣改写的内容占⽐为多少才能被认为合乎道德?

22. 内容创作者应该阻⽌AI爬取他们的⽹站并从他们的⼯作中学习吗?如果这是AI获取重要信息的唯⼀途径呢?

23. AI不具备道德能⼒。那么,要求它帮助做出道德决是否合乎道德?

24. 当AI被⽤来做出影响⼈们的决定(⽐如抵押贷款评估)时,⼈们是否应该有知情权?任何被AI拒绝的⼈是否应该有权质疑该决定并接受⼈类的重新评估?

25. AI公司是否应该采取额外的努⼒来建⽴多样化的开发团队?如果没有来⾃某些种族或⽂化群体的⼈参与开发AI,那么AI做出影响这些群体的决定是否公平?

UUID: 6846a199-e557-45aa-8d2c-eb5a1a5f5dec

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/学术头条公众号-pdf2txt/学术头条2023年/学术头条_2023-04-22_后ChatGPT时代,问自己25个问题.txt

是否为广告: 否

处理费用: 0.0073 元