为何人工智能邮件会悄然破坏职场信任

人工智能已成为职场沟通的常规工具,大多数专业人士都在使用ChatGPT和Gemini等工具。一项针对1000多名职场人士的研究表明,虽然AI能让管理者的信息更显精炼,但过度依赖会损害信任度。员工通常能接受基础层面的AI辅助(如语法修正),但当上级大量使用AI生成内容时——尤其是涉及个人情感或激励性信息时——就会产生疑虑。这种"认知偏差"可能导致员工质疑管理者的诚意、诚信和领导能力。

一项针对1100名职场人士的新研究揭示了工作沟通中的关键悖论:人工智能工具能让管理者的邮件显得更专业,但频繁使用会削弱他们与员工之间的信任。

"我们发现信息质量感知与发送者形象之间存在张力,"佛罗里达大学沃灵顿商学院研究员、研究合著者安东尼·科曼博士表示,"尽管AI辅助写作能营造专业印象,但当管理者将AI用于日常沟通时,中高程度的AI辅助会危及他们的可信度。"

这项发表在《国际商务沟通期刊》的研究中,科曼与南加州大学的合著者彼得·卡登博士调查了专业人士对不同AI辅助程度(低/中/高)邮件的看法。参与者需评估祝贺邮件的AI生成版本,包括对内容质量和发送者形象的感知。

虽然AI辅助写作普遍被认为高效、专业,但研究者发现管理者与员工撰写的邮件存在"感知鸿沟"。

"人们评估自身AI使用时,对低中高辅助程度的评价差异不大,"科曼解释,"但评价他人使用时,辅助程度就至关重要。总体而言,职场人士对自身AI使用较宽容,却对上级使用同等AI辅助更存疑。"

语法校对等低程度AI辅助尚可接受,但高度辅助会引发负面认知。当员工察觉大量AI写作痕迹时,会对管理者的原创性、诚信度、关怀力与专业能力产生质疑,这种感知差距尤为显著。

 

对信任的影响相当可观:仅40%-52%员工认为重度使用AI的上司真诚(低辅助信息为83%)。同样,低AI辅助的管理者邮件专业度认可率达95%,而重度依赖AI时降至69-73%。

研究显示员工常能识别AI生成内容,将其解读为懒惰或缺乏关怀。当管理者用AI处理团队祝贺或激励沟通时,员工会认为其缺乏诚意并质疑领导能力。

"AI辅助写作可能削弱与管理者可信度相关的特质认知,"科曼特别指出这对能力感知与诚信感知的影响——这两者都是认知信任的关键要素。

研究建议管理者在使用AI前应仔细考量信息类型、AI辅助程度及关系语境。虽然AI适用于会议提醒等事务性沟通,但需要同理心、表扬、祝贺、激励或个人反馈的关系导向信息,最好尽量减少技术干预。