随着生成式人工智能(AI)技术迅猛发展,其对全球信息安全的潜在影响日益凸显。本文探讨俄罗斯国家关联及亲国家行为体如何在网络传播中讨论、概念化与界定AI。基于对俄罗斯关联网络渠道的原创分析,本研究调查了俄影响力生态系统中的行为体如何看待AI在信息战中的作用,以及其叙事揭示的威胁演变轨迹。报告发现:多元化的俄罗斯行为体正积极参与AI话题讨论——不仅探索AI工具在内容自动化生产与传播放大中的应用,更将其作为叙事工具加以探讨:或宣扬其效力,或警示其风险,将其同时塑造为战略资产与潜在威胁。

分析表明各类俄行为体(从瓦格纳关联组织到亲俄黑客团体及网络意见领袖)日益聚焦AI的双重性。AI常被描绘为强大的信息操纵工具:能生成说服性内容、放大信息传播量、以规模压制对手。与此同时,众多行为体对西方主导AI发展表示强烈忧虑,认为该技术可能颠覆公众舆论、侵蚀自主权、破坏国内信息环境稳定性。关于监控、深度伪造(通过数字手段篡改音视频以伪造人物言行)及算法偏见的担忧在此类论述中尤为突出。这些讨论远非抽象臆测——本文记录了国家关联行为体如何积极辩论AI影响、分享实操知识、批判虚假信息实践并招募技术人才。这些洞察表明俄影响力网络正形成适应性演进文化,AI日益被视为未来信息战的核心组件。

尽管本研究未触及高层情报规划内幕,但提供了行为体层面的独特视角:揭示AI如何融入俄影响力网络的战略构想。这些发现不仅强调追踪AI在未来虚假信息战中的操作化应用至关重要,更需理解其已如何塑造行为体的思维方式、传播模式及数字生态定位。

背景与方法
生成式AI的扩散引发广泛担忧——恶意行为体可能利用其破坏信息生态。早期关于AI生成虚假信息的警示多聚焦理论风险,而新近证据表明众多行为体已将此类技术纳入影响力行动。理解这些行为体如何认知、试验及部署生成式AI,对预测未来威胁设计有效反制至关重要。此问题在俄信息战背景下尤为迫切:俄政府长期将信息战视为治国方略核心,视信息域为与传统/核战争同等重要的冲突战场。据信俄国家关联虚假信息行为体已重金投入AI技术,以期在2024年欧洲议会选举前夕影响欧洲受众。随着生成式AI更易获取且功能增强,其降低了亲俄行为体生态(含国家关联媒体、黑客活动分子及网络意见领袖)的操作门槛,使其能以更复杂方式试验并应用这些工具。

尽管威胁严峻,对俄国家关联行为体虚假信息战的认知仍有限。现有讨论多聚焦行动输出,却较少关注其如何看待AI在影响力行动中的作用。本文通过考察俄国家关联行为体(含国家关联社媒群组、黑客团体、军事关联组织及网络意见领袖)对AI的讨论填补此空白,探讨AI如何成为其武器库中的增效工具或补充现有技战术。本研究通过测绘分析这些行为体的网络传播渠道与信息生态,为理解俄虚假信息战提供新洞察。具体而言:分析其如何探讨AI的认知理解、技术应用现状及宣传潜力,聚焦欧洲受众影响与舆论极化尝试。

本分析置于探索AI赋能信息战的文献脉络中,提供更以行为体为中心的视角。研究未将俄虚假信息视为单一国家主导行为,而是强调参与者的异质性及其应用AI方式的多样性与矛盾性。尽管聚焦战术与中层级行为体,本文无意映射情报机构高层或决策者的战略思想——此类洞察超出开源社媒监测范畴。本报告旨在精细呈现AI在俄影响力生态系统中如何被认知、讨论与操作化,揭示这些演变实践反映的实操与叙事层面新兴威胁。

成为VIP会员查看完整内容
1

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
《人工智能(AI)与国防领域》最新报告
专知会员服务
33+阅读 · 4月16日
《战术意图识别:人工和算法效率比较研究》最新报告
专知会员服务
53+阅读 · 2024年10月29日
《人工智能对传统人工情报分析的影响》最新报告
专知会员服务
48+阅读 · 2024年10月10日
「知识增强预训练语言模型」最新研究综述
专知
17+阅读 · 2022年11月18日
智能合约的形式化验证方法研究综述
专知
16+阅读 · 2021年5月8日
多模态情绪识别研究综述
专知
24+阅读 · 2020年12月21日
基于深度学习的数据融合方法研究综述
专知
33+阅读 · 2020年12月10日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
170+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
470+阅读 · 2023年3月31日
Arxiv
77+阅读 · 2023年3月26日
Arxiv
170+阅读 · 2023年3月24日
Arxiv
24+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员