【原创研究】超越新闻泰勒主义:人工智能时代新闻业的转型危机与制度重构太欣新材料科技

2025-04-18 22:06:13
浏览次数:
返回列表

  本文试图超越新闻泰勒主义与工具理性的双重束缚,着力探讨两个亟待解答的关键问题:首先,效率理性化背后潜藏的专业去技能化与新闻价值单一化如何避免;其次,平台依赖的技术政治学在“泰勒化”进程中如何形成并重塑公共价值与专业规范。

  在人工智能技术在全球范围内持续迭代升级之际,新闻业正经历一场深刻的范式变革。以我国的DeepSeek等现象级应用为代表的新一波技术浪潮,不仅在公众层面激发了“技术狂热”,也在新闻机构内部悄然埋下了“技术解决主义”(techno-solutionism)的认知陷阱。[1]然而,学界现有研究多聚焦于人工智能工具的短期应用成效或效能评估,却鲜少深入剖析技术在被采纳过程中的结构性权力转移,以及其对公共价值与专业规范的深层影响。

  在此背景下,本文试图超越新闻泰勒主义与工具理性的双重束缚,着力探讨两个亟待解答的关键问题:首先,效率理性化背后潜藏的专业去技能化与新闻价值单一化如何避免;其次,平台依赖的技术政治学在“泰勒化”进程中如何形成并重塑公共价值与专业规范。围绕这两大核心议题,本文细致梳理新闻机构在人工智能运用过程中的具体场景与运作机制,并借此揭示当代新闻业正经历的“技术—资本—职业规范”的三重博弈。在此过程中,“新质传播力”的概念不仅重新定义了传播的主体性和媒介特征,还从根本上改变了信息的生产与分发模式[2],为探索超越新闻泰勒主义的现实路径提供了理论启示。

  AI技术对传媒业的全面介入推动了新闻生产流程的“泰勒主义”转型。这一概念源自美国工程师弗雷德里克·温斯洛·泰勒(Frederick Winslow Taylor)在其著作《科学管理原理》中提出的“科学管理”(Scientific Management)理论,其核心理念在于通过精细化分工、量化考核及流程标准化来使生产效率最大化,并在此过程中将劳动者的技能与工作环节进行高度拆解与简化。[3]传统媒体的新闻采编机制依赖记者的社会洞察与经验来决定选题和版面。进入人工智能时代,在新闻泰勒主义逻辑下,记者编辑被要求按照算法或数据指标执行更为标准化的内容生产任务,由数据模型决定选题方向,绩效指标衡量文章的传播效果,人工智能工具把关标题优化和发布时机等。新闻泰勒主义不仅仅体现在生产流程的标准化和自动化,更意味着新闻劳动的“去技能化”(deskilling)与内容决策的算法化。[4]传统新闻工作者依赖经验、直觉和社会洞察力决定选题、判断新闻价值,如今,这一系列工作越来越多地由数据驱动的系统完成,记者被迫适应流水线般的写作要求,生产符合算法偏好的“最优内容”。生成式人工智能的“黑箱化”本质使得技术的应用不仅是功能性工具的扩展,而且是对社会认知与生产逻辑的深刻塑造,这反映了技术如何在新闻生产中发挥深层影响,尤其是算法与新闻生产流程的互动问题。[5]

  从本质上看,太欣新材料科技新闻泰勒主义实质上是对传统新闻价值观的隐性重塑。过去,记者编辑对新闻生产的决策主要基于公共利益、新闻伦理和多元叙事的综合考量,而AI逻辑则更倾向于依据历史数据预测内容的传播效果,这不可避免导致了趋同化、迎合性的内容生产模式。正如《》一名高级编辑所言:“在自动化选题系统下,我们被告知哪些新闻‘更可能成功’,但没人再问什么新闻是‘值得报道’的。”[6]由此可见,表面上的效率提升背后,潜藏着对专业判断的弱化、对新闻价值多样性的漠视,以及对新闻行业独立性与公共责任的潜在侵蚀。值得注意的是,人工智能的绩效在很大程度上首先取决于被输入的数据信息质量。同时,随着深度神经网络的广泛应用,决定人工智能绩效的算法本身具有“技术的黑箱性”,这一现象在新闻生产领域中表现得尤为突出。[7]算法对新闻生产流程的主导作用,不仅带来了效率上的显著提升,同时也引发了关于技术自主性和系统不可控性的一系列深层次问题。

  与传统的媒体—平台依存关系相比,AI时代的权力结构正在向基础设施控制层面深入渗透:当算力、云存储与核心算法都掌握在大型科技公司手中,新闻机构实际上已陷入对平台的不可逆依赖。约77%的受访机构在日常新闻生产中依赖亚马逊云转录服务(AWS Transcribe)或谷歌云视觉(Google Vision)等服务。具体而言,这种技术依赖形成了三重锁定效应:算力贫困化、数据闭环化和认知依附化。一方面,媒体机构因财政或规模限制难以自行承担昂贵的云计算设备;另一方面,大量生产数据(包括文本、音频、用户交互数据等)被实时回流至平台公司,用于进一步训练其算法模型,而媒体自身却仅能在API调用层面获得有限的访问权限。更为隐蔽的是,当《每日电讯报》采用谷歌云自动机器学习(Google AutoML)工具进行个性化推荐后,编辑方针即被嵌入难以解释的算法参数之中,新闻职业规范逐渐让位于系统的技术逻辑。[8]

  在这一过程中,平台公司通过“云服务—API接口—开发者生态”三位一体的商业架构,利用基础设施层面的垄断地位深度掌控媒体的新闻生产链。英国广播公司(BBC)新建的人工智能实验室全面依赖谷歌提供的技术框架(Google TensorFlow),其技术路线和创新空间实际上被锁定在平台公司预设的轨道之上。在技术中心论的逻辑下,新闻泰勒主义不仅改变了新闻机构自身的运营逻辑,也深刻重塑了信息生态的权力格局。当算法迭代发生时,媒体只能被动跟进;当平台关闭某项服务时,媒体的深度报道或数据存储则可能瞬间瘫痪。

  针对上述隐忧与挑战,学界现有的研究在三个方面有明显局限。其一,工具论视角往往将AI视为中性的效率工具,忽视了技术在社会建构过程中的内在权力博弈;[9]其二,创新扩散理论过度关注技术采纳的线性过程,却难以解释平台依赖形成后所出现的路径锁定与难以逆转的结构性问题;其三,传媒经济学研究多聚焦于商业模式分析[10],却缺乏对劳动过程转型与专业技能退化的微观考察。

  本文采用“跨国文献分析法”,通过整合多个国际组织、学术机构和行业调查报告(详见表1),结合跨国比较的研究视角,揭示人工智能技术在新闻业中的深层影响。选择这一方法的核心逻辑在于,人工智能的渗透在全球范围内具有普遍性,同时在不同国家和地区展现出独特的实施模式和影响机制。通过综合分析多个具有代表性的研究报告,本文旨在全面审视AI对新闻生产、平台依赖及公共领域功能的影响,进而提出相关的制度创新与应对策略。

  新闻泰勒主义在生产与内容决策层面已让记者与编辑深陷标准化与去技能化的束缚,但更深层的危机是平台公司利用云算力、数据回流及生态封闭等手段,实质性地改变了媒体在主流价值界定和引领方面的地位。[11]随着关键技术基础设施被集中控制,新闻机构在“被赋能”的同时也被纳入平台的资本逻辑与技术逻辑,从而陷入了受平台节制却无法独立自主的制度性陷阱。当这一局面不断固化时,媒体往往只能通过让渡数据、采纳既定算法来换取局部生产效率的提高,却难以在制度层面构建自身对公共领域、社会责任和多元价值的守护机制。这意味着,若媒体无法摆脱底层架构上的依附地位,超越新闻泰勒主义的努力也只能局限于表层流程的改进,而无法真正触及公共话语主导权与文化再生产权的根基。

  平台公司通过“云—端—芯”三位一体的技术基座,正在重新定义新闻业的创新生态。Google TPU芯片、微软Azure云计算与亚马逊网络服务(Amazon Web Services,以下简称“AWS”)构成了算力霸权的基础设施。《卫报》在其机器学习项目中原本计划大规模训练深度模型,但因无法承担AWS弹性计算成本,不得不将训练规模缩减至原设计的23%。这一算力分配格局导致新闻媒体陷入了技术垄断的困境。具体而言,当新闻媒体机构83%的人工智能算力依赖第三方云服务时,其技术创新实质上受制于平台资源配给机制。[12]

  与此同时,数据闭环的形成进一步加剧了这种不对等关系。与Open AI公司的内容合作协议显示,新闻机构不仅需向平台提供历史档案数据,还要实时上传新内容进行模型微调,换来的却只是GPT-4 API(应用程序接口)每日5000次的调用权限。新闻机构为平台“供养”了高价值的数据,却难以获得等价的技术回报。《》向谷歌云(Google Cloud)输入的新闻数据价值量是其获得服务价值的3.7倍。哈佛商学院教授肖莎娜·祖博夫(Shoshana Zuboff)将此形容为“数字封建主义”(digital feudalism)下的生产关系:在这种权力结构中,科技平台作为新的“封建领主”控制着基础设施和技术资源,而媒体组织则如同“数字农奴”,被迫向平台贡献数据贡赋,却无法换来同等程度的技术增值权。[13]这种不对等关系体现为媒体提供宝贵的内容和用户数据,却只能获得有限的平台服务和算法可见性作为回报。对于当今的新闻媒体机构而言,这种“数据—服务”交换失衡已成为人工智能时代的新常态,他们既需要实时性与海量算力来保持报道竞争力,又被迫放弃对数据与算法主权的掌控。

  大规模预训练模型的崛起使平台公司不仅掌控了基础设施层面的算力与数据管道,更在认知框架上重塑新闻机构。《金融时报》在采用谷歌云自动机器学习(Google AutoML)构建个性化推荐系统时,将用户兴趣量化为152维特征向量,然而其中38%的维度定义权完全由平台主导。这导致了编辑团队对算法核心逻辑缺乏理解,只能接受系统生成的“推荐结果”。当系统将“商业报道”与“奢侈品广告”的关联权重设定为0.87时,财经新闻选题便悄然向消费主义倾斜,新闻议程实则被算法的“无形之手”引导。

  德国电视二台(ZDF)的案例则揭示了更为深刻的危机:其人工智能辅助剪辑系统高度依赖微软智能云(Microsoft Azure)视频分析API。2022年制作一部气候主题纪录片时,系统自动过滤掉72%的非结构化访谈素材,优先保留量化数据片段(如温度曲线、碳排放统计),致使纪录片叙事被限制在可视化图表与数据逻辑中,而严重忽视人文层面的多元诉求。算法规训正将复杂社会议题“压缩”为可计算对象,背后实为平台公司对叙事逻辑的隐性控制。[14]无论选题还是素材筛选,均在“算法黑箱”影响下渐离新闻机构既定的编辑准则。

  这种“认知外包”(cognitive outsourcing)不仅使媒体在日常生产中严重依赖平台模型,也使其丧失了对编辑方针和社会价值塑造的自主权。[15]若此种依赖持续深化,其影响将超越技术层面,改变记者、编辑与受众间的互动模式,最终导致公共话语权向平台公司集中。在此格局下,平台承担核心的“思考与分析”功能,而编辑团队则沦为算法预测与建议的“修饰者”,难以维持真正的独立判断。

  平台公司通过构建开发者生态进一步强化对新闻业的系统性控制。AWS推出的“新闻业人工智能解决方案套件”整合了17个预训练模型与45个API,《》视觉识别系统深度对接该生态后,其87%的核心功能模块已实现API直连调用。这种技术依赖形成显著的锁定效应:当该报试图替换图像分类模块时,系统架构重构率高达68%,迁移成本巨大。尽管开源社区提供替代性方案,但实际应用效果有限。以“抱脸网”(Hugging Face)平台提供的开源BLOOM模型为例,太欣新材料科技《卫报》技术团队因分布式训练基础设施缺失导致部署失败,平台企业则趁此机会通过专利布局巩固技术霸权。谷歌在自然语言处理领域持有的2143项核心专利,构建了从文本生成到语义分析的全链条技术壁垒。[16]对资源禀赋有限的新闻机构而言,跨越专利与算力门槛的难度显然远超想象。

  由此观之,依赖平台公司构筑的技术生态不仅强化了新闻泰勒主义的运行逻辑,更使新闻业陷入算力垄断与数据回流的多重桎梏,形成“数字封建主义”的制度化收编。倘若新闻机构无法从基础设施与核心算法层面突破平台的垄断地位,不仅其独立性与社会责任将持续受到侵蚀,想要真正超越新闻泰勒主义更将举步维艰。

  在基础设施垄断日益强化与新闻泰勒主义不断延伸至内容分发领域的双重挤压下,新闻业构建与维护公共价值的压力显著增加。当劳动流程被算法化、记者在生产环节沦为“流水线”式执行者的同时,算法对受众端的话语与信息选择也施加了深刻影响。由此形成的“算法规训”不仅改变了新闻作品的可见性与传播路径,更在潜移默化中重塑公众认知与社会议程,使多元对话空间不断萎缩。在这种情况下,新闻机构若要捍卫公共价值,必须突破“泰勒化”的生产—分发逻辑,从制度化与多元化维度探索新的突围路径。

  1.可见性剥夺:搜索优化的逆向淘汰。谷歌公司推出的搜索生成体验(Search Generative Experience,SGE)工具引发了媒体可见度的系统性危机。根据SimilarWeb监测平台数据,用户检索“气候变化政策”时,AI生成摘要对《卫报》《》等头部媒体内容的引用率达92.6%,但仅16.8%的案例提供原文链接,致使新闻网站访问量同比骤降37个百分点。[17]当平台系统推行“答案优先”策略时,新闻机构实质上沦为结构化数据库,其与受众的直接对话通道被系统性截断。这种“注意力收割”机制导致的媒体生态位塌缩,标志着新闻泰勒主义开始渗透到内容分发体系的“毛细血管”。原本需要多方博弈的公共议题讨论,被平台算法压缩为标准化响应输出,导致媒体的阐释权与议程设置能力遭受双重削弱。《》的跟踪研究显示,其环境类报道在SGE结果中的曝光度虽提升了42%,但实际点击转化率仅为传统搜索模式的23%,印证了“即时解答”范式对媒体流量池的虹吸效应。[18]

  2.认知窄化:算法驱动下的议题聚焦与偏移。算法推荐机制正在诱发公共讨论的系统性偏差与认知窄化陷阱。牛津大学路透新闻研究院对《经济学人》数字平台的追踪研究表明,太欣新材料科技其用户画像系统通过谷歌分析系统(Google Analytics)构建的214个兴趣维度中,78.3%属自动化标签生成。当用户被划入“商业决策者”群体时,系统以0.92的权重系数推送并购资讯,0.87权重系数分配CEO专访,深度报道的接触率则衰减至4.7%。这一推荐逻辑在《世界报》“养老金改革”议题中呈现更显著的认知降维。用户平均阅读时长从8.7分钟降低至2.3分钟,折射出个性化算法对公共议程的结构化形塑。当社会成员持续暴露于此类“认知带宽压缩”机制,公共理性正面临标签化消费范式的系统性消解,社会认知能力呈现代际退化趋势。

  3.文化同质化:生成式人工智能(AIGC)导致的叙事单一化。大型语言模型的文化再生产效能伴生着叙事同质化的系统性风险。对GPT-4生成的2300篇新闻文本的文体计量分析表明,程式化“倒金字塔结构”占比达89.2%,而多元叙事框架(7.1%)与非线%)呈现结构性缺失。跨国媒体共享模型参数导致语料趋同,《华尔街日报》与《南华早报》商业报道的语义相似度达76%,验证了“算法趋同效应”。生成式人工智能的普遍运用导致了更深层次的“语料殖民主义”危机进一步加剧,模型训练数据隐含的英语中心主义使南半球议题遭遇“再现赤字”。非洲媒体联盟测算显示,GPT-4生成“粮食安全”的内容量仅为“加密货币”的三分之一,揭示技术霸权下的叙事权力失衡。

  平台垄断与人工智能泛化语境下,新闻业突破“泰勒化”困局的关键在于建构技术主权与认知劳动的新型平衡。BBC的“国家媒体云平台”(NMC)项目(资本支出2亿英镑)通过开源BERT改进模块与本地私有云架构,将核心技术依赖度从91.7%降至68.4%,模型训练边际成本缩减37.2%。同步推进的“欧洲语言技术联盟(ELT)”借助多语种语料库与分布式算力池,其成员机构人工智能开发总成本出现了41.3%的降幅,证实了区域化技术联盟的自主性增益效应。这些实践构建起对抗平台垄断的制度性反垄断架构,为媒体技术主权建设提供了可复刻路径。

  应对认知劳动的“泰勒化”危机,路透社“人机协作编辑”项目通过胜任力模型重塑实现突破。量化评估证实,该岗位将批判性思维(权重65.3%)与伦理判断(权重22.1%)确立为核心指标,使记者数据解读能力提升39.4%,同时维持叙事创造力基准值(μ=82.5)。这种认知增强型岗位设计通过提示工程优化与交互式叙事工具开发,形成人机认知劳动分工的再平衡机制,有效遏制了人工智能对专业判断力的侵蚀。

  “公共领域”的范式转换需要构建全球协同的技术治理矩阵。北欧新闻数据联盟(NDA)通过制度经济学创新,建立含870万篇脱敏新闻语料的共享数据库(参与机构贡献度与访问权限呈0.78正相关)。挪威和瑞典的多家媒体气候预测模型精度提升了52.3%,验证了“数字公地”(digital commons)对平台依赖的替代效应。[19]这种由诺贝尔经济学奖得主奥斯特罗姆倡导的“公地治理”框架被运用于数字空间,通过动态平衡数据主权与协同收益,为跨域合作提供了制度性保障太欣新材料科技。

  全球治理层面,联合国教科文组织《AI伦理建议书》(193国签署,覆盖率98.5%)构建起算法问责制框架:禁止新闻语料商用训练(第7.2条)、设定人工干预阈值(第12.4条)、建立第三方审计机制(第15条)。先锋媒体如《卫报》通过区块链溯源系统,将AI参与度编码为可验证元数据,这种技术信任机制使公众得以解构算法黑箱,辨识潜在偏见。

  从新闻实践角度观察,“算法规训”使记者编辑在内容选题和价值判断上日益处于被动地位,“公共价值”正面临前所未有的碎片化与单一化冲击,传统的编辑自主权与专业规范难以有效落实。因此,制度重构在当下不仅是一种自救尝试,更是确保新闻业继续履行社会责任与公共价值的必然选择。在平台化垄断的背景下,单个机构或国家难以与掌控巨大算力和用户入口的跨国平台直接对抗。区域性或跨国型的“数字公地”建设、反垄断和数据保护立法,以及对算力与API服务的监管,已成为重塑新闻业独立地位与公共责任的关键路径。只有通过集体行动与跨国合作,媒体才能在算法与技术资源上获得更大自主权,避免陷入对平台程式化逻辑的被动依赖。当反垄断与版权补偿、跨国伦理规范与协同治理等多元手段相互融合时,超越新闻泰勒主义才具备了现实可行的制度化路径。这种多维制度创新正逐渐成为人工智能时代新闻业在存续与发展过程中的战略选择。

  新闻机构通过自动化技术与推荐算法应对市场变革时,其技术基础设施的依附性已超越工具层面,呈现出“技术封建主义”的结构性困境。这提示着数字化转型本质上构成资本逻辑对公共领域的制度性重构,既动摇了传统新闻规范的专业根基,更在认知维度上构成了价值筛选机制的代际风险。值得关注的是,欧盟通过《数字市场法案》(Digital Markets Act)建构的反垄断框架,与行业先行者在人机协作模式中的突破性探索,正在解构技术决定论的认知范式。新闻业的技术自主权恢复路径,本质上是制度约束、价值重构与技术伦理的协同演进过程。

  人工智能在新闻业的深度应用正在突破传统效率框架,呈现出边际效用递减规律:自动化系统的大规模引入虽在初期显著提升生产效率,但当技术渗透至事实核查、价值叙事建构等核心环节时,新闻机构的品质指标(读者信任度、阅读时长等)却呈现系统性衰减。新闻生产中至关重要的事实核查需要复杂语境判断,而多元价值叙事则依赖人类认知整合。但上述这些本质属性既无法被算法完全量化,更难以通过技术替代实现价值增殖。

  平台依赖在此过程中固化为结构性技术锁定范式太欣新材料科技。科技巨头构建的“云服务—API—专利”商业架构形成创新壁垒,典型如《》视觉系统87%功能模块深度嵌入AWS架构,其系统迁移净现值测算达-230万美元。这种成本结构迫使新闻机构以数据主权换取有限技术权限,实质构成数字时代的“技术封建主义”生产关系——与泰勒主义通过劳动分割实现控制强化的历史逻辑形成跨时空呼应,在AI时代异化为平台对技术栈与数据流的绝对垄断。所谓“平台赋能”在此语境下演变为单向度的资源汲取机制,当新闻机构丧失关键技术自主权,其创新空间便被压缩为寡头生态中的边际调适。[20]

  更严峻的危机在于“公共领域”的系统性解构。大型语言模型与搜索生成体验(SGE)通过答案前置机制重构信息权力结构:SGE在拦截68%访问流量的同时,将深度报道压缩为极简摘要,导致媒体网站点击量下降。这种“数据幕后台”效应不仅架空新闻机构的议程设置能力,更使公共讨论陷入碎片化困境。简言之,新闻泰勒主义以效率至上原则侵蚀媒体社会功能,用流量指标置换多元价值,最终消解公众的深度思考空间。

  破解新闻泰勒主义困局需构建“制度—技术—价值”三维治理框架。面对算力霸权与数据封建的双重桎梏,新闻业应通过强制性反垄断与数字公共产品供给重塑技术主权:欧盟《数字市场法案》已表明,强制开放API接口可使媒体算法自主性提升27%,并通过数据回流机制重构云端定价权。若配套推进“数字反垄断基金”建设,中小媒体将获得基础算力与开源技术支撑,从而突破对科技寡头的结构性依附。

  构建算法可解释性框架是维护媒体独立性的关键机制。通过立法确立算法影响评估制度,强制披露新闻AI的训练数据溯源与决策参数权重,可建立技术黑箱的“透明度基线”。路透社对“人机协作编辑”岗位的实践也佐证,人工审计与自动化并非对立,而可共同发挥纠偏功能,以提升新闻的客观性与信任度。这种协同机制有效化解了新闻泰勒主义的根本矛盾:传统泰勒主义通过劳动分割实现效率最大化,而人工智能时代的新闻生产则面临专业价值与平台逻辑的范式冲突——选题策划、内容分发等核心环节的算法化改造,实质是对新闻职业规范与公共责任的解构性重组。

  制度创新的终极目标在于重建技术治理的公共价值锚点。相较于泰勒主义单一效率导向,新闻业的数字化转型必须维系“效率—责任—多元性”的动态平衡。当算法沦为平台资本增值工具时,唯有通过基础设施公有化、数据资源民主化与算法决策透明化的制度设计,才能真正走出新闻泰勒主义对新闻业的桎梏,并为数字时代的公共领域注入新的活力。

  换言之,走出新闻泰勒主义的困境并非仅仅意味着技艺层面(如采编自动化、写作效率)的改良,而是要从制度结构和社会治理层面全面反思媒体与平台、媒体与公众之间的权力关系和责任边界。面对跨国科技巨头主导信息基础设施的事实,通过国际规范[如欧盟的《可信人工智能伦理指南》(Ethics Guidelines for Trustworthy AI)等]与地方立法(如反垄断法案、媒体与平台数据共享协议)的协同演进或能塑造媒体的再生能力。未来的新闻业或许将在此过程中,通过“制度—技术—价值”三者的统合来重建专业主体性和公共使命,实现从技术依附到价值主导的范式转换。

  【本文为清华大学文科建设“双高”计划创新方向建设专项“中国特色国际传播理论体系”(编号:2024TSG08103)成果】

  [2]史安斌,郑恩.新质传播力:迈向传播学3.0研究的范式升维[J].新闻与写作,2024(12):50-63.

  [4]史安斌,郑恩.迈入“融合性真实”:文生视频技术对新闻传媒业态的重塑 [J].传媒观察,2024(04):27-36.

  [6]范玉吉,张黄茜.隐匿的力量:新闻生产与分发中的数据权力 [J].西南民族大学学报(人文社会科学版),2024,45(3):132-141.

  [7]郭全中,李黎.生成式人工智能将通向隐秘的社会?——一个叠合黑箱的逻辑与实践[J].暨南学报 (哲学社会科学版),2024,46(12):81-96.

  [16]许静,刘欣,蒋雪颖.新闻生产与生成式人工智能人机耦合的实践进路[J].南昌大学学报(人文社会科学版),2023,54(5):114-122.

  (史安斌:清华大学新闻与传播学院党委书记、教授,爱泼斯坦对外传播研究中心主任,本刊学术顾问;郑恩:清华大学爱泼斯坦对外传播研究中心助理研究员)

  史安斌,郑恩.超越新闻泰勒主义:人工智能时代新闻业的转型危机与制度重构[J].青年记者,2025(04):84-90.

搜索