一项新调查发现,大多数美国成年人不信任ChatGPT等人工智能 (AI) 工具,并担心它们可能被滥用。这表明,围绕人工智能创建的恶意软件和虚假信息的频繁丑闻正在造成损失,公众可能越来越容易接受人工智能监管的想法。
MITRE Corporation 和哈里斯民意调查 (Harris Poll) 的调查称,在接受调查的 2,063 名美国成年人中,只有 39% 的人认为当今的人工智能技术“安全可靠”,比两家公司 2022 年 11 月进行上次调查时下降了 9%。
当谈到具体问题时,82% 的人担心深度伪造和“其他人工工程内容”,而 80% 的人担心这项技术可能如何用于恶意软件攻击。大多数受访者担心人工智能在身份盗窃、收集个人数据、在工作场所取代人类等方面的应用。
事实上,调查表明,人们对人工智能对不同人口群体的影响变得更加警惕。虽然 90% 的婴儿潮一代担心 Deepfake 的影响,但 72% 的 Z 世代成员也对同一话题感到焦虑。
尽管年轻人对人工智能的怀疑较少,并且更有可能在日常生活中使用它,但在许多领域,人们的担忧仍然很高,包括该行业是否应该采取更多措施来保护公众,以及人工智能是否应该受到监管。
监管有力支持
对人工智能工具的支持下降可能是由于几个月来有关生成式人工智能工具的负面报道以及ChatGPT、Bing Chat 和其他产品面临的争议所致。随着错误信息、数据泄露和恶意软件的故事不断增加,公众似乎对迫在眉睫的人工智能未来越来越不适应。
在 MITRE-Harris 民意调查中,当被问及政府是否应该介入监管人工智能时,85% 的受访者支持这一想法,比上次增加了 3%。同样,85% 的人同意“让人工智能安全可靠地供公众使用,需要整个行业、政府和学术界共同努力”,而 72% 的人认为“联邦政府应该在人工智能上投入更多时间和资金”安全研究与开发。”
人们对人工智能被用来改善恶意软件攻击的普遍担忧很有趣。我们最近就这个话题与一组网络安全专家进行了交谈,共识似乎是,虽然人工智能可以用于恶意软件,但目前它并不是一个特别强大的工具。一些专家认为其编写有效恶意代码的能力很差,而另一些专家则解释说,与向人工智能寻求帮助相比,黑客可能会在公共存储库中找到更好的漏洞。
尽管如此,对人工智能所有事物日益增长的怀疑最终可能会影响该行业的努力,并可能促使 OpenAI 等公司投入更多资金来保护公众免受其发布的产品的侵害。有了如此压倒性的支持,如果政府尽早开始制定人工智能监管,请不要感到惊讶。