2023年1月28日の記事を編集して再掲載しています。
ChatGPTで揺れるテック業界。
昨年のデビュー以来、教育現場、ジャーナリズム界隈、軍事業界とあらゆる分野で着目され(一部恐れられている)ているAIチャットbotのChatGPT。もっとも揺れているのはGoogleをはじめとするテック企業。
Amazonも例外ではありません。
ChatGPTのトレーニングに社外秘データを使われたくない
Amazonの弁護士チームがChatGPTのリスクを考慮。米Business Insiderの報道によれば、現在開発中のコード含むAmazonの極秘情報をChatGPTと共有しないようにとAmazon社員に向けてお達しがあったとのこと。ChatGPTがAmazonの社外秘であるはずのデータに非常に似たレスポンスを出したのをAmazon関係者が目撃したとし、社内での懸念が高まったようです。
社内お達しメモはSlackで共有されており、ChatGPTの今後のトレーニングデータとして社外秘データが使われるリスクを回避するためと、これがいかに重要かを説いています。
現代版『王様の耳はロバの耳』にならないように
AIにコードを書かせる、または自分が書いたコードの添削を頼むのは、すでにChatGPTのあるある活用法。でてくるコードは、完璧なときもあれば穴があることも。
が、AIが書くコードを使用する以前に、そのベースとなるものを共有するリスクに対してピンときていない人は少なくないのかもしれません。相手が人間ではないことで、ヒミツを話してもOKな気がしてしまいますが…。AIは与えられたことをどんどん吸収して学びにつなげます。あなたが打ち明けたヒミツが、どこでどうアウトプットされるかは予測できません。
これからの時代、AIに対する秘密の共有のリスクというリテラシーも必要なのかな。「誰にも言わないでよ」にはAIも含まれる時代に突入です。