澳大利亚在意外磋商中询问是否应禁止“高风险”人工智能
澳大利亚政府宣布突然进行了为期八周的咨询,旨在了解是否应禁止任何“高风险”的人工智能工具。
其他地区,包括美国、欧盟和中国,在最近几个月也推出了措施,以了解和潜在减轻与快速AI发展相关的风险。
6月1日,工业和科学部长埃德·休西克宣布发布两份文件——《澳大利亚安全和负责任的人工智能讨论文件》和《国家科技委员会的生成式人工智能报告》。
这些文件随附了一份咨询,将持续到7月26日。
政府希望得到关于如何支持“安全和负责任使用AI”的反馈,并讨论是否应采取自愿方法,例如道德框架,是否需要特定的监管,或者采取两种方法的组合。
咨询中的一个问题直接问道,“是否应完全禁止任何高风险的AI应用或技术?”以及应该使用什么标准来识别应该被禁止的这些AI工具。
全面的讨论文件中包括了AI模型的草稿风险矩阵以供反馈。虽然只提供了例子,但将自动驾驶汽车中的AI分类为“高风险”,而用于创建医疗病历等目的的生成式AI工具则被认为是“中等风险”。
#AI已经成为我们生活的一部分。随着这项技术的发展,我们需要确保它符合澳大利亚人对负责任使用的期望。参加下面的@IndustryGovAu讨论。 https://t.co/Gz11JCXlsG
—澳大利亚首席科学家(@ScienceChiefAu) 2023年6月1日
文件中强调了医疗、工程和法律行业中“积极”的AI使用,但也提到了其“有害”的用途,如深度伪造工具、用于制造假新闻的用途,以及AI机器人鼓励自残的案例。
AI模型的偏见和“幻觉”——AI生成的无意义或错误信息——也被提出为问题。
相关:微软首席安全官表示,AI将帮助人类蓬勃发展,但还是签署了末日信
讨论文件声称,由于公众信任水平低,澳大利亚的AI采用率“相对较低”。它还指出了其他管辖区的AI监管和意大利对ChatGPT的临时禁令。
与此同时,国家科技委员会的报告称,澳大利亚在机器人和计算机视觉方面具有一些优势的AI能力,但其“大型语言模型和相关领域的核心基础能力相对较弱”,并补充道:
“大量生成式AI资源集中在少数几个大型跨国主要以美国为基础的技术公司中,这可能对澳大利亚构成潜在风险。”
报告进一步讨论了全球AI监管,给出了生成式AI模型的示例,并认为它们“可能影响从银行和金融到公共服务、教育和创意产业的一切。”
AI Eye:2.5万名交易员押注于ChatGPT的股票选择,AI在掷骰子方面表现不佳,等等
We will continue to update 算娘; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles