ChatGPT使用の職場におけるリスク

大阪府茨木市「こころ社労士事務所」の香川昌彦です。

今回は、「ChatGPT」や他のAIツールの使用に関することを取り上げます。これは、多くの企業が直面している問題となっています。「仕事でのChatGPTの使用を禁止した」というニュースを見かけることも多くなりました。
では、なぜ職場でChatGPTの使用を制限する必要があるのか、その理由を見ていきましょう。

ChatGPTとは

まずChatGPTとは何か簡単に説明します。ChatGPTとは、自然言語処理の技術を用いて、人間と会話したり、文章を生成したりすることができる人工知能の一種です。
「自然言語処理」とは、人が話したり書いたりする言葉をコンピューターに処理させる技術です。特別なプログラム言語がなくても、話しかけるように処理を頼めば回答を出してくれるイメージです。

ChatGPTと仕事

ChatGPTは、仕事に関する質問に答えたり、提案書や報告書などの文章を生成したりすることができます。ChatGPTはインターネット上に公開されている情報や過去に入力されたデータをもとに文章を作成するのです。当たり前の話ですが、AIは過去のデータからしか学習することができません。

ChatGPTによって生成された文章は、正確さや妥当性を検証する必要があります。ChatGPTは間違った情報や不適切な表現を含む文章を生成することもあるのです。

ChatGPTと提案書

ChatGPTに提案書などのビジネス文書を生成させたとします。しかし、ChatGPTは自動的に文章を作成するだけであり、その内容や品質に責任を持ちません。そのため、ChatGPTによって生成された提案書は、必ず人間が目で確認し、修正や補足を行う必要があります

また、ChatGPTによって生成された提案書は、他の会社や顧客と重複したり、競合したりする可能性があります。繰り返しになりますが、回答はインターネット上の情報を元に作成されるからです。その場合、提案内容のオリジナリティや競争力が低下する恐れがあります。さらに「盗まれた」と、訴訟リスクを抱えることともなります。

ChatGPTと顧客分析

ChatGPTは、顧客のニーズや嗜好などの分析を行うことができます。マーケティングの一部を担うことができるというわけです。
しかしながら、ChatGPTは顧客のプライバシーを尊重することはできません。そのため、ChatGPTに入力する顧客の情報は、個人情報保護法やその他の関連法規に違反しないか、注意する必要があります。

さらに、ChatGPTによって行われた顧客分析の結果は、前述したように必ず人間が検証する必要があります。ChatGPTは、顧客の情報を誤解したり、偏見を持ったりすることがあるからです。
少し難しい話になりますが、AIに「偏見のない、公平な判断」を学習させるのは人間なので、その人間の偏りを排除することはできない仕組みになっています。

情報の機密性

職場では、機密情報や重要なデータを取り扱います。ChatGPTに会社の内部資料や顧客の個人情報を入力した場合、それらの情報が第三者に知られる恐れがあります。そのため、ChatGPTに入力する情報には、会社や顧客の機密情報や個人情報が含まれていないか、十分に確認する必要があります。

また、ChatGPTによって生成された文章がインターネット上に公開された場合、会社や顧客のイメージや信用を損なう可能性があります。場合によっては損害賠償等、民事訴訟に発展しかねないリスクがあります。

職務遂行への影響

AIツールは素晴らしいツールですが、完璧ではありません。誤った情報や解決策を提供する可能性があります。しかも、それらしい間違えた回答をすることが頻繁に起こります。

たとえば「イチローはなぜ野菜が好きなのか?」をChatGPTに聞くとイチローは何故野菜が好きなのかもっともらしい回答をしてくれます(興味のある方はChatGPTで実際に試してみてください)。言うまでもなく、これは「野球」を「野菜」とうち間違えたという人的ミスですが、その答えも考えてくれるというわけです。

これが職場のプロジェクトや業務に影響を与えることは言うまでもありません。ChatGPTがあるからこそ、従業員は今まで以上に自分の知識や経験に基づいてタスクを遂行する必要があります。

コミュニケーションの問題

AIに過度に依存することは、コミュニケーションにも影響を及ぼす可能性もあります。人間同士のコミュニケーションは職場で非常に重要です。AIを使用しすぎると、チームメンバー同士の対話やアイデアの交換が減少する可能性があります。「ChatGPTとの壁打ち」が有用なのは確かですが、それに依存してしまうと本当の創造的なアイデアを生み出せません。「誰も納得できないアイデア」が採用される可能性もあります。

職場での使用規制

このように、ChatGPTは、仕事に関する質問に答えたり、文章を生成したりすることができるAIツールですが、その利用には様々なリスクが伴います。-
そのため、職場でのChatGPTの使用には、適切なガイドラインやルールを設ける必要があります。

ガイドラインやルールを設ける際には、以下の点に注意することが望ましいです。

  • ChatGPTに入力する情報に会社や顧客の機密情報や個人情報が含まれていないか、十分に確認すること。また、入力した情報がChatGPTの機械学習に利用される可能性があることを認識すること。
  • ChatGPTによって生成された文章は、必ず人間が目で確認し、修正や補足を行うこと。また、生成された文章が正確かつ適切であることを保証すること。
  • ChatGPTによって生成された文章を公開する場合は、コンテンツが自社に帰属すること、コンテンツがAIによって生成されたものであることを明示すること。また、生成された文章の著作権や商業利用の可否を確認すること。

以上を元に就業規則にてChatGPTの使用に制限をかける条文、または独立させて規定を作成する必要があります。

まとめ

職場でのChatGPTの使用のリスクと制限する必要がある理由を見てきました。情報の機密性、職務遂行への影響、コミュニケーションの問題など、これらの要因から、企業はAIツールの適切な使用に関するルールを設ける必要があります。AIは強力なツールですが、適切に活用するためには慎重なアプローチが必要です。

職場でのAIの使用に関する規則は、職場環境を守り、効果的な業務を確保するために不可欠です。従業員はルールに従って適切にAIを利用し、協力して業務を進めることが大切です。

職場におけるChatGPTの使用に対応した就業規則を作成・周知している会社はまだまだ少数派です。日進月歩のAI対策が会社の規模に関係なく求められるのです。

香川 昌彦

香川 昌彦

社会保険労務士法人こころ社労士事務所 代表
全国社会保険労務士連合会(登録番号第27190133号)
大阪府社会保険労務士会(会員番号第22072号)
大阪府中小企業家同友会 三島支部 情報化広報委員長
一般社団法人即戦力 理事
茨木商工会議所専門家相談事業 相談員
大阪府働き方改革推進支援・賃金相談センター 訪問コンサルティング専門家
関西圏雇用労働相談センター 労働相談員

関連記事

RELATED POST

この記事へのコメントはありません。

PAGE TOP
MENU
お問合せ

TEL:072-646-8954

(月 - 金 9:00 - 17:00)