ChatGPT是一项两极分化的发明,人们对人工智能 (AI) 聊天机器人的反应在兴奋和恐惧之间摇摆。现在,一项新的调查显示,对 ChatGPT 的幻想破灭可能会创下新高。
根据安全公司 Malwarebytes 的一项调查,81% 的受访者担心 ChatGPT 带来的安全和安全风险。这是一个了不起的发现,表明人们越来越担心 OpenAI 聊天机器人显然能够实施的邪恶行为。
Malwarebytes 要求其时事通讯订阅者回应“我担心 ChatGPT 可能带来的安全和/或安全风险”这一短语,81% 的人同意这一观点。此外,51%的人不同意“ChatGPT和其他人工智能工具将改善互联网安全”的说法,而只有7%的人同意,这表明人们普遍担心ChatGPT对网络安全的影响。
对人工智能聊天机器人的不满不仅限于安全问题。只有 12% 的受访者同意“ChatGPT 生成的信息是准确的”这句话,而 55% 的人不同意。多达 63% 的人不相信 ChatGPT 的回复,只有 10% 的人认为它们可靠。
生成恶意软件
鉴于近几个月来 ChatGPT 被利用的一系列引人注目的不良行为,这种反应并不完全令人惊讶。我们已经看到它被部署用于各种可疑行为,从编写恶意软件到向用户提供免费的 Windows 11 密钥。
2023 年 5 月,我们与多位安全专家讨论了ChatGPT 带来的威胁。 Bitdefender 技术解决方案总监 Martin Zugec 表示,“聊天机器人生成的恶意软件代码质量往往较低,这对于经验丰富的恶意软件编写者来说不太有吸引力,因为他们可以在公共代码存储库中找到更好的示例。”
尽管如此,这并没有消除公众对 ChatGPT 用途的担忧。显然,人们担心即使是新手恶意软件编写者也可能会要求人工智能聊天机器人想象出毁灭性的病毒或牢不可破的勒索软件,即使一些安全专家认为这不太可能。
暂停开发
那么,可以做什么呢?当 Malwarebytes 询问读者对“ChatGPT 和其他 AI 工具的工作应该暂停,直到监管赶上”这一声明有何看法时,52% 的人表示同意,而略低于 24% 的人表示不同意。
公众的这一呼吁与著名科技领袖的几封公开信一起,要求暂停人工智能聊天机器人的开发,因为它存在“大规模风险”。也许决策者是时候开始注意了。