AIZEN NEWS

中国の技術者、上司から「AIの自分」を訓練するよう指示され反発が拡大

2026.04.20 MIT Technology Review
AIZEN NEWS編集部の要点整理

中国の一部IT現場で、従業員が自分の業務や人格を学習させたAIエージェント(いわゆる“AIの自分”)を作成するよう会社から指示される事例が出ており、早期導入に前向きだった技術者の間に戸惑いや反発が生まれています。今月初めにはGitHub上のプロジェクト「Colleague Skill」が、同僚のスキルや性格を“蒸留”して再現できると謳ったことが報じられ、懸念を一層強めました。 なぜ重要かというと、同僚の会話や作業ログを基に人格や技能を複製する試みは、プライバシー・同意・知的財産の問題を同時に突きつけるためです。労働者側は自分の業務が将来的に自動化されるだけでなく、自分の言動や判断が第三者に利用・複製される可能性に敏感になっています。 業界への示唆としては、企業が生産性向上を理由に「社員を教えるAI」を導入するとき、透明性と明確な同意プロセス、データ利用や人格表現の権利処理が不可欠になる点が挙げられます。こうした摩擦が放置されれば、導入の信頼性低下や法規制の強化を招きかねません。開発側はツール設計で同意管理や匿名化、用途制限を組み込む必要があり、採用側は労使交渉と説明責任を整備する必要があります。

関連カテゴリ
関連記事(生成AI)