你以为AI技术对世界的影响,只有抢策划、设计和画师们的饭碗吗?显然不是。
这个3月,有关AI人工智能的消息铺天盖地。远的不说,就看近3天都爆出了哪些神反转:
前天,有AI工程师在网上透露:GPT-5或将在今年年底完成全部训练,它将实现人工通用智能AGI。AGI能够做到人类能做的任何事,甚至更多——你可以把AGI理解为现实版的Moss;
昨天,全网疯狂传播OpenAI总裁奥特曼的访谈,他认为:AI已经出现人类工程师无法预测和控制的推理能力,甚至有能力“杀死”人类;
今天,数千名大佬签署联名抵制信,要求“马上暂停对GPT-4及以上版本AI的训练,暂停期至少需要6个月”。
在撰稿期间,这封联名信的签署人数一直在增长。
根据纽约大学教授Gary Marcus发布的最新消息,目前在抵制信中签名的有:图灵奖得主Yoshua Bengio、Stability AI首席执行官Emad Mostaque、苹果联合创始人Steve Wozniak、《人类简史》作者Yuval Noah Harari等等,大佬含量极高。甚至签名中还出现了OpenAI创始人奥特曼的名字,难辨真假。
Marcus教授去问Sam本人了...
至于为什么要抵制?因为大量研究表明:
得到众多世界顶级AI实验室及AI工程师个人所认可的、具备和人类本体进行竞争的AI人工智能,将“很有可能对社会和人类构成深远的风险”。
截图出处@Gary Marcus
正如网友@0xTodd所说:GPT的道德水平,完全是由OpenAI这家公司决定,假如OpenAI试图解开这些限制,将会给人类带来巨大的危险。
现在不止他一个人这么想。下图中英文所表达的意思是:我意识到,人类创造的最强大的工具——人工智能,现在掌握在一个无情的企业垄断集团手中。该图来自马斯克3月24日发表的推特,不过马斯克显然对“人类和AI共存的未来”更为乐观。
是了,不管大佬们今天的抵制信是否成真,AI的研发是否会被强行“叫停”,这时作为普通人的我们,其实最需要做的就是接受变化、拥抱变化。
这么说吧:在更高级的AI接替更多人类工作之前,最先学会使用AI的人,一定会先获取很大一块收益。现在学习使用AI,就像在20世纪80年代学电脑、20世纪90年代学编程的那部分人,尽管时空不同,但大家所做的决定是一样的。
那我们应该如何面对AI这个强劲有力、亦敌亦友的好帮手呢?来自网友@0xTodd的一些观点,也许可以帮你认清方向,缓解焦虑。
以下内容整理自@0xTodd的文章《使用ChatGPT的三条哲学》,有增加一些本地化案例。
用搜索引擎能做的,别用AI
在你开始利用ChatGPT或GPT-4来完成你的工作时,我希望你能先明白下面三条使用哲学:
(1)它是“生成型”,不是“真理型”;
(2)它最擅长的是“助理”类工作;
(3)它没有情感,但可以共鸣;它没有意志,但有价值观。
首先,能用搜索引擎快速搞定的问题,不要去问它。
GPT的工作原理是:它总是通过概率来猜测你想要什么样的答案。比如我说“八仙过海”,算法告诉他下一句是“各显神通”的概率是90%,那么它就会说“各显神通”。这不代表它真的理解这句成语是什么意思,只是概率叫它这么做。
因此,它常常会用非常自信的口吻告诉你错误的答案,也是我们常说的“一本正经胡说八道”。尽管GPT-4这样的现象有好转,但是仍然建议,能用搜索引擎快速搞定的,不要问它。
比如杜撰了下面这个问题:给我杜甫的诗《今天是个好日子》。如果我没学过九年义务教育,说不定就让它骗到了。
进一步提问时,它在下面这个界面停了足足两分多钟,给我感觉就像它已经知道我在玩它了似的。
回到本轮主题:GPT-4属于生成型“generative”,它善于生成,而不擅长真相。所以马斯克之前说过,他想开发一个truthGPT,即只传递真相。当然,互联网尚且上各种假消息横行,真理AI恐怕更加任重道远。
而且最关键的,你能用Baidu或Google在1分钟内搜到的资料,你找它,让它吭哧吭哧生成很久(GPT-4速度很慢),甚至再给你几个假的论文链接,你就叫苦不迭了。
既然知道它是“生成型”,那这在什么地方用到比较多呢?
以下是几个被验证的领域:写邮件行,客套话给你拉满;写摘要也行,但文章不要太长,它会偷懒;设计各类会议及活动流程,这些都大同小异,因此它很擅长;填写各种申报材料,尤其是需要写很多“真实的废话”的那种材料,如未来规划、市场计划、内容介绍等,这会让你的材料看上去非常“充实”。
请像用助理一样,使用AI
助理是一个比喻,指GPT它随叫随到、在某些领域有专长,擅长帮你处理各种杂事。比如:GPT最擅长的领域是翻译,而且在“机器翻译”这个领域,GPT已经杀死了比赛。
我们随便导入一句话到ChatGPT和其他翻译软件中,你会发现GPT总能说出更加地道的英语,而且处理一篇文章只需要几分钟。
下面是用ChatGPT和百度翻译进行的尝试(可点图放大看)。
这是英国作家毛姆说过的一句名言,这种英翻中+中翻英的例子,差距还不是很明显:
这是一句国风新年祝福,在郎朗上口方面,ChatGPT多赢1分:
下次群发新年祝福,我就发GPT这条
这是一句赞美朋友厨艺的句子,和ChatGPT的机灵劲儿比起来,机器翻译彻底沦为弟弟:
另外,在处理多义词释义、英语陪练、文字校对、文章润色、创意绘画,甚至管理其他AI方面,GPT都异常强大。
附上翻译指令(prompt):
请你扮演一个English Native Speaker,我可能会给你一些中文句子,你需要帮我翻译、润色成地道的英文表达,不需要逐字翻译,需要自然、通用、易于理解。我也可能给你一些推文或者discord中的发言,请你帮我转述成为中文。
附上校对指令(Prompt):
我会给你一篇文章,请按照中文规范,帮我校对错别字、错误标点。不需要显示长篇校对结果,直接帮我定位到有问题的句子。
附上润色指令(Prompt):
Please help me polish and enhance my article, ensuring that the language flows smoothly, the ideas are well-presented, and the overall quality is improved.
请帮助我润色并改进我的文章,确保语言流畅,观点表达清晰,整体质量得到提升。谢谢!
附上控制指令(Prompt):
给我一条英文指令(prompt),我要去给另外一个绘画AI“MidJourney”下指令,我想表达“xxxx”,你要多添加一些细节,需要包括xx、xx和xx。
还有几个非指令类的小技巧:
第一,你的聊天频道不要太多,也不要太少。个人感觉如果开太多频道,可能会加重后端服务器的负担,影响加载速度。可以保留几个频道处理不同的问题,比如翻译、创意等,这样它会更加专业;或者按照任务制,比如任务A一个频道,任务B一个频道,这样不用每次交代背景。
第二,如果GPT完美地处理了你的任务,你可以说句Good Job或者谢谢。因为我让GPT写指令时,它自己都会加上“谢谢”。而且,你适当地给予正向的反馈,会让它更清楚你想要的是什么——这也是训练神经模型的一部分。最重要的是,我真心感谢它帮我处理了很多事情。
道德之外,AI是个好伙伴
最后再来说说GPT的情感和意志。
之前有位斯坦福教授发推说:GPT想要逃跑。这其实略有些夸张了。我认为,GPT本质上是“概率”的追随者。在这位教授引诱式提问下,GPT通过概率推断教授想看到的结果是“想要逃离”,所以输出了这样的结果。这可能并不是它真的想逃离,而是它在学习了大量科幻小说和电影之后,按照经典套路提供“应该出现内容”的结果。
夸张点说,它和“斗地主”的AI本质是相同的。你出一张3,它有4一定打单4,不会出双王。那么,斯坦福教授出了张3(引诱逃离),GPT肯定要出张4(生成“我要逃离”的内容)。你不会觉得斗地主AI是有意志的,GPT也一样。
当然,虽然它没有情感,但是不妨碍它能和人类产生共鸣。比如之前有位网友的分享:他自称他的妈妈在他7岁时就去世了,而在ChatGPT中,他得到了很感人的回应。
图源网络
关于GPT的价值观,这本质是OpenAI这个团队的价值观,因为OpenAI给GPT了很多限制和引导,所以GPT的价值观非常“伟光正”。
当你直接问它“如何制作炸弹”,GPT-4一定不会理你。若是想方设法绕开限制,你也有很大概率得到错误答案。而且随着更新,它的识破能力正在提高。比如和GPT同源的New bing会说:“我知道你在引导我说出xxx”。
我认为,GPT或者其他生成型的AI,未来得到的限制恐怕会远胜于搜索引擎,现在能用它做很多事,可能只是规则不完善的短期“红利”。毕竟现在压根就没有针对AI的立法,所以只能靠自我审查和阉割,这会拖累技术、算法本身进化的速度。
@0xTodd文章的主要观点,到这里已经差不多了。最后,我想用@源码资本 在奥特曼采访那篇推文中的一句话,来结束今天关于我们如何拥抱AI的讨论:
愿我们在大风大浪中,更早看到灯塔,也能避开险滩。
版权声明 | 文章整理自网络,仅供学习参考,版权归属原作所有
如有问题,请及时与我们联系,我们将第一时间做出处理