兰卡斯特大学学术界表示,人工智能(AI)和算法可以用来消除、极化和传播种族主义和政治的不稳定性
兰开斯特大学国际安全教授JoeBurtona认为,AI和算法不仅仅是为了阻止网上的恶意活动而部署的国家安全工具,而是可能成为极端化、激进主义和政治暴力的因素,从而威胁国家安全此外,他说,安全化过程(将技术视为存在的威胁)已经被工具化,AI已经被设计、使用,并产生了其他有害的结果
Burton教授的文章“算法推理”?人工智能(AI)的安全及其对激进主义、两极分化和政治暴力的影响发表在《社会技术》杂志上
伯顿教授说:“根据一个螺栓,AIisoftenframebases被用来对抗智力缺陷。”“这是灾难的另一面。”
这篇论文展示了人工智能是如何通过其历史、媒体和大众文化图片以及通过探索具有两极分化、激进影响的人工智能的现代例子而被安全化的,这些影响导致了政治暴力
这篇文章引用了经典的系列电影《终结者》,该片描述了一个由“病态和恶意”人工智能组成的群体所做的比任何事情都要多的事情来推动人工智能的普及,而地球上的机器意识可能会导致人类的灾难性后果——在一个明确的警告中,并考虑了一些外部方面的尝试
伯顿教授写道:“这种机器缺乏信任,与之相关的恐惧,以及与人类的生物、核和遗传威胁的关联,有助于政府部门和国家安全部门进一步影响这项技术的发展,降低风险,并(在某些情况下)具有积极的潜力。”
伯顿教授说,许多简单的密码,比如乌克兰西部的密码,现在可以自动解锁,包括识别和认知等功能
而且,尽管已经进行了广泛的竞选辩论,包括在联合国,“杀死机器人”,并在涉及生死攸关的决策时让人类参与其中,但他说,加速和满足解决问题的速度仍在继续
Incybersecurity——计算机和计算机网络的安全性——AI正以一种主要方式与最普遍的标签信息和网络心理战联系在一起
2016年,普京政府的行动在美国选举过程中发挥了重要作用,剑桥分析公司的调查标准显示,禽流感的可能性与大数据(包括社会媒体)相结合,以产生政治影响,包括两极分化、医学信仰的鼓励和身份认同群体的相互影响它证明了AI的能力和潜力
在疫情期间,AI被认为是对病毒的积极追踪和追踪,但这是对隐私和人权的担忧
受试者对AI技术本身进行了审查,认为问题对AI的设计、它产生的数据、使用方式及其结果和影响存在性别歧视
这篇论文的结尾是向从事安全和国际关系工作的研究人员发出的一条长长的信息
“AI确实有能力以积极的方式转变社会环境,但同时也表明,我们需要更好地理解和管理,”网络冲突和破坏技术专家、大学安全与保护科学倡议的倡导者伯顿教授写道
“了解技术在所有阶段的差异性影响,适应发展和早期至关重要。
”安全和国际关系领域的学者有机会在新兴的AI研究机构中建立这些因素,并避免将AI视为政治中立技术
“换句话说,信息系统的安全性,以及它们在国际、地缘政治斗争中的使用方式,不应该过分关注它们的社会影响。”
作为英国国家网络安全中心(NCSC)认可的众多需要教育、研究和培训的大学之一,Lancasteris正在研究下一代网络安全阅读器的可行性除了通过建立NCSC认证的硕士与新的网络安全学士学位的合作伙伴关系来提高该地区的技能和人才管道外,它还推出了一项商业教育中的网络执行硕士计划
来源:
Materials provided by
Lancaster University.
注明: Content may be edited for style and length.
参考:
2024-01-20
2024-01-20
2024-01-20
2024-01-20
2024-01-20