守护者与人工智能:美国太空部队的战略决策

  • 来源: 驱动中国   2023-10-12/09:34
    • 正文

    在科技日新月异的今天,人工智能的应用已经渗透到我们生活的方方面面。最近,一份备忘录显示,由于数据安全方面的担忧,美国太空部队(The U.S. Space Force)已暂停其员工使用ChatGPT等基于网络的生成人工智能工具。这一决策引发了各方的关注和讨论。

    据路透社报道,这份备忘录日期为9月29日,针对太空部队称之为“守护者(Guardians)”的工作人员,禁止他们在政府电脑上使用这类人工智能工具,包括大型语言模型,除非他们得到太空部队首席技术与创新官的正式批准。这一临时禁令被描述为“由于数据聚合风险”而采取的。

    生成式人工智能的应用,在过去一年中呈爆炸式增长,它们利用大量的历史数据进行学习,可以根据一个简单的提示快速生成文本、图像或视频等内容。然而,这种技术的广泛应用也带来了新的挑战和问题,尤其是在数据安全方面。

    太空部队首席技术与创新官Lisa Costa在备忘录中表示,这项技术“无疑将革命性地改变我们的工作方式,并增强守护者以高速度运作的能力。”然而,她也强调了对数据安全的担忧,并认为需要更多的研究来确保这种新技术的安全性和可靠性。

    空军发言人Tanya Downsworth在一份声明中说:“美国太空部队已经对生成式人工智能和大型语言模型的使用实施了战略性禁令,我们正在确定将这些能力整合到守护者的角色和太空部队任务中的最佳途径。”她补充说:“这是为了保护我们的服务和守护者的数据。”

    这一决策凸显了在科技进步的同时,如何确保数据安全和保护用户隐私的重要性。尽管生成式人工智能具有巨大的潜力,但我们必须谨慎对待,以确保我们的信息安全。同时,这也提醒我们,随着技术的发展和应用,我们需要不断更新和改进我们的数据安全策略和规定。

    10月12日消息,一份备忘录显示,由于数据安全方面的担忧,美国太空部队(The U.S. Space Force)已暂停其员工使用 ChatGPT 等基于网络的生成人工智能工具。 据路透社报道,这份备忘录日期为 9 月 29 日,针对太空部队称之为“守护者(Guardians)”的工作人员,禁止他们在政府电脑上使用这类人工智能工具,包括大型语言模型,除非他们得到太空部队首席技术与创新官的正式批准。 备忘录称,这一临时禁令是“由于数据聚合风险”而采取的。 生成式人工智能的应用,在过去一年中呈爆炸式增长,它们利用大量的历史数据进行学习,可以根据一个简单的提示快速生成文本、图像或视频等内容。 太空部队首席技术与创新官 Lisa Costa 在备忘录中表示,这项技术“无疑将革命性地改变我们的工作方式,并增强守护者以高速度运作的能力。” 空军发言人 Tanya Downsworth 在一份声明中说:“美国太空部队已经对生成式人工智能和大型语言模型的使用实施了战略性禁令,我们正在确定将这些能力整合到守护者的角色和太空部队任务中的最佳途径。”她补充说:“这是为了保护我们的服务和守护者的数据。”


    评论 {{userinfo.comments}}

    {{money}}

    {{question.question}}

    A {{question.A}}
    B {{question.B}}
    C {{question.C}}
    D {{question.D}}
    提交

    驱动号 更多