
- 会社非承認のAI利用が、データ侵害・著作権違反・倫理問題を招く恐れがある。
- 記者のAI利用を制限し、方針策定や監視体制を強化する動きが進む。
- 完全な監視は困難だが、研修やガイドラインでリスク管理を図る。
もし筆者が自腹でChatGPT Plusの料金を払って、その助けを借りてこの記事を書いたら、上司に見つかるだろうか? 上司はそれを気にするだろうか?
まさにこれが「シャドーAI」を取り巻いている疑問だ。シャドーAIとは、会社が正式には認めていないにもかかわらず、職場でAIツールを利用すること指す。
会社はプレッシャーをかけて仕事を急かし、そのプレッシャーが止むことはない。そこに使いやすい生成AIツールの拡散が加わることで、仕事の完了にAIを利用する編集スタッフの増加という状況が生まれている。文法のチェックや原稿の書き直し、さまざまな見出しのテストといった、ささいな仕事にAIを利用するだけなら、これらのルール違反も軽微なもので収まるかもしれない。しかし他方では、もしそれが見過ごされてしまったら、より大きな問題につながりかねない利用の仕方もある。
それだけではない。エディトリアルに関する基準の不一致や、セキュリティの脆弱性、倫理に対する判断ミスを生む恐れもあると、法律の専門家たちは述べている。
シャドーAIとは、具体的にはどのようなものなのだろうか? このリスクへの対処にどう取り組んでいるのだろうか? さっそく見ていこう。
シャドーAIとは何か?
前述したとおり、シャドーAIとは、会社が正式には承認・認可していないAIツールを利用することだ。生成AIツールの職場での無許可利用により、データ侵害が発生するリスクが高まる。そのため、どの企業のIT部門でも、これが心配の種のひとつになっている。[続きを読む]
The post 「シャドー AI 」とは? 企業が直面する新たな課題と対策 appeared first on DIGIDAY[日本版].
Source: New feed
