ai and digital identify
其他IT资讯

从ChatGPT窥探数字世界的未来

近期,Justinas就AI的发展采访了数字身份专家Philipp Pointner,试图了解AI发展对数字世界未来发展的影响。

就目前来看,AI模型还无法天衣无缝地伪造网络身份,但已经可以在网络上模仿人类行为,这已经导致了一种情况”除非有明显的证据,你无法分辨正在沟通的网友是机器人还是人类“

Philipp Pointner

一旦ChatGPT或其他AI模型被完全接入互联网并获取实时数据,AI可以做任何他们想做的事情,无论人类愿不愿意。Pointner还表示,AI聊天机器人的浪潮会导致人类从社交媒体上获取虚假信息的概率大大增加。社交媒体企业需要加大识别真实社交账号的力度,否则平台将被AI生成的”假账户“淹没,这些账户与真实账户将难以区分。

各社会团体、技术巨头负责人,如马斯克、沃兹尼克等人曾就此问题发声,认为如果缺乏适当的安全协议,信息渠道将会充斥AI生成的鼓动宣传和谎言。Europol指出,ChatGPT被滥用于制造假新闻,并成为鼓动和制造虚假信息的理想工具。

警钟已然敲响,无论是制造更具欺骗性的钓鱼信息,还是生成恶意代码,AI被用于潜在犯罪已成为可能,并使网络犯罪门槛更低。

以下是Justinas对Pointner采访的部分内容:

J:OpenAI近期发布了GPT-4,据称比前一个版本更为强大和先进,此外还有Google研发的Bard,对于这些不断研发迭代的AI聊天机器人工具出现,您认为会对网络安全产生什么影响?

P:这些工具发展和迭代的速度确实让人震惊,至于能否保持这个发展速度,我无法确定,但是从目前来看,似乎版本更新、功能更强大的AI模型很快就会出现。ChatGPT在beta和alpha版本时就已经与因特网连接,并很快向公众开放,早在2021年,它已经不是简单局限于处理数据的工具,能够完成实时的搜索并与网站交互。一旦AI与网络实现强关联,它就可以自发地在社交媒体上创建账户,更大限度实现它想做的事情——无论人类希不希望这些事情发生。

J:您认为传递虚假信息是AI聊天机器人最大威胁之一吗?

P:AI的潜在风险有很多,但制造虚假信息确实是很棘手的一个问题,即使没有AI的出现,网络世界已经很难让人分辨,很多时候,你无法准确判断网络描述的真实性,AI的出现把这种情况恶化了,你甚至很难分辨对方是真人还是机器人。

J:ChatGPT能够生成钓鱼信息是另一个热门话题,您认为这个问题是当下我们需要担忧的吗?

P:在没有AI的情况下,如果要设计一封钓鱼邮件骗取汇款,你需要设计一个合理的情景,并想方设法使对方产生共鸣,根据对方的回复设计情节,这个过程只能手动完成。但随着AI介入,这个过程可实现自动化,聊天机器人可以按照情景自发完成写信和回信的过程,并且生成极具说服力和逻辑的内容,这是非常可怕的

J:您认为未来五年,AI机器人的威胁会发展成什么样?

P:跟所有领域一样,诈骗也会实现自动化,变得更易发生。AI将更有能力去尝试生成精心策划的内容,无论是通过图片生成假ID,还是生成验证码,我们会看到AI生成的大量“无用”信息。

信息平台需要设置过滤规则,对信息进行分辨,否则将被无止境的信息洪流淹没,甚至无法得知信息的来源和产生的意图。每个人都能轻易使用聊天机器人为其服务,并利用机器人输出的观点在网络中传播,社交媒体平台需要更严格的机制审核信息,或至少要确保每个人拥有唯一的真实账号。

查看完整源文:

ChatGPT and the future of digital identity: bot, until proven otherwise

翻译整理:

Juli

订阅评论
提醒
0 评论
内联反馈
查看所有评论

Now Hiring: Are you a driven and motivated 1st Line IT Support Engineer?