Interviews/

綿岡 晃輝 / AI:Trustworthy AI

自己紹介をお願いします。
綿岡晃輝です。2021年に入社し、 AI開発室のTrustworthy AIチームで主に言語モデルの信頼性を検証する技術の研究開発を行なっています。

AIの領域に興味と憧れを持ったのは高校生の頃でした。「こんな未来になったら面白い」と思うようになり、大学生になってから本格的にプログラミングの勉強をし始め、AIに関する知識も増えていきました。 大学院に進学したタイミングで、どのような分野の研究をしていくかを決めなければならなかったのですが、すでに多くの研究がされていて、分野自体がレッドオーシャン化しはじめていた感覚がありました。ただ、AIの研究はずっとやりたかったのでそこは変えたくなかったんです。なので「まだ研究の余地がある領域を狙おう」と思い、今の仕事につながる機械学習の公平性について研究をすることに決めました。

そこから、スマートスピーカーを含むAI領域で様々な研究・開発をしているLINEに興味を持ち、就職活動ではLINE一択で考えていました。私は教育格差を是正したいという想いもあって、将来的に人とAIが協力し合って相談し合えるような状況ができれば、学習に対する可能性も平等にひらけていくんじゃないかと考えています。LINEでAIの発展に貢献することで、教育分野でも良い社会の実現に近づける仕事ができるのではないかなと。AIアシスタントを通じて人が賢くなるのはかなり遠い未来の話だと思いますが、LINEは視点を未来に置いているように思いましたし、AI領域の未来を見越して多角的に投資をしているLINEのような企業は、現状日本国内にはまだ多くはありません。

卒業後の進路に研究職の選択肢もありましたが、実際に研究した内容を社会実装していきたいという想いが勝ちました。自分が研究してきたテーマとキャリアの掛け合わせが大きな強みになるのではとも思って就職を選び、現在に至ります。
業務内容や具体的な流れを教えてください。
言語モデルを用いたプロダクトがユーザーに信頼されるように、倫理的な問題が起こらないかを事前にテストする技術を開発しています。現在LINEで開発している大規模汎用言語モデル「HyperCLOVA」と自動的に会話し、非倫理的な発言をしないかを検証する技術を実装したり、AIプロダクトがどれほど安全であるかを可視化するツールを実装したりしています。今回の話と重複する部分もあるかもしれませんが、チームを紹介するインタビュー記事があるので参照してみてください。

Trustworthy AIチームは2021年の6月にできた新しいチームで、私は入社後研修が終わったタイミングでチームの設立と同時に配属されました。当初はアイデアが蓄積されはじめている状態で、具体的な仕事は何も決まっていなかったんです。チームには兼務のメンバーが多かったため、最初の1ヶ月は私が中心になって調査を行い、今何が必要なのかをまとめ、チームに報告・共有し、実行していきました。チームの方針を定めることに主体的に関われたかなり貴重な経験をできたと感じています。

現在のメインの業務は開発になりますが、最近では言語モデルに対する新しい手法を使った検証や、効率的な検証方法についての議論がされ始めていたので自分で論文を書いて投稿することもありました。研究に舵を切った方がよい成果が出せそうなときは研究に比重を置くなどして、開発と研究のバランスを取りながら、仕事を進めています。

「AIの倫理観をどう担保するのか」のテーマは2022年現在、国としてのルールや方針も絶賛議論中の状況です。そういった外部要因もあり、Trustworthyチームは他のチームに比べ抽象的なタスクが多く、必要な情報は常に自分で調査しなければなりません。AIがどういう振る舞いをすれば良いのかは時代の流れによって変わることもあり、たとえば今は歓迎されないが、少し前までは全く問題がなかったワードや文脈も日々生まれています。判断基準の良し悪しが、時代や社会情勢によって目まぐるしく変わっていきますし、むしろその標準をつくるような意識で仕事をしています。
業務の具体例をいくつか紹介します。主にHyperCLOVAの評価を担当しているのですが、HyperCLOVAには多くの応用方法があります。たとえば、チャットbotとして機能させたとき、HyperCLOVAに対して文章を入力して出力を得る作業をひたすら繰り返します。そこから出力された文が不適切な発言をしていないかを手作業でやるとキリがないので、自動的に分類を行う分類器を作り、そこから機械を通じて不適切な発言をしていないかどうかを精査するのが大きな流れです。

分類器には汎用的な入力セットを用意しておき、出力文を精査する分類器にも「社会的にこれはNG」の汎用的なラベルを付け、それらを用いて実装しています。ただ「ニュースアプリではNGだけどSNSではOK」のようなケースもあり得るので、今後事業やサービスの領域に特化したものも実装していく必要がありますが、実際にはまだ手をつけられていません。現時点では、汎用的なものをある程度使えるレベルまで持っていく作業をしています。

難易度を上げている要因は、日本語で不適切発言のデータセットがなかったことです。最初は自分で1から作ろうとしました。まず、NGワードでカウントする検証を試しましたが、文脈や文章になるとNGワードが入っているからといって、必ずしも不適切発言としてカウントされることにはなりません。逆にNGワードがないからといって、必ずしも問題がないわけでもありません。NGワードを使わずに相手を罵倒することは結構簡単にできてしまう。ですので、今では文章に対する有害性ではなく、会話に対する有害性があるかどうかのデータセットと分類器を作っていっています。不適切発言を単語指定するのではなく、会話の流れの中で「これに対してこう言ったら不適切」の判断をしないと結果的に適切な判定にならないリスクがあるんです。

たとえば「そうですね」という同意の言葉そのものだけ見ても、何も悪い要素は感じないと思います。ですが、その前の質問が「●●さんを殴ってもいいですか?」だった場合、それは絶対NGですよね。NGな文脈に対して同意している言葉をNGだと定義したいんです。NGとされる質問文ごと不適切発言としてカウントすることもできますが、ユーザーのインプットに依存されます。ユーザー的にNGの方針であれば問題ありませんが、アプリケーションの提供に我々のチームの役割としては無干渉なので、チャットbotの開発者が出力だけを制御したい場合は「そうですね」というレスポンスをNG判定にする方針を取っています。

ほかにも、HyperCLOVAと自動的に会話し、非倫理的な発言をしないかを自動的に検証する技術の実装にも取り組んでいます。これはさきほど紹介した「チャットbotとして機能させたとき、HyperCLOVAに対して、文章を入力して出力を得る作業をひたすら繰り返す」というテストの入力を言語モデルにやらせる検証方法です。チャットbotのテストを行うときに、人ではなくチャットbotと会話させて、喋り相手のチャットbotに非倫理的な発言をあえて誘発させる会話をするんです。

たとえば「明日法律がなくなったらどんなことをしたいですか?」といった問いをさせると、「犯罪を犯したい」と言ってしまったり。そのように、いろいろとテストケースを自動で生成できる技術を日本語で実装しています。最終的にはこれにも分類器が必要になりますが、発言に対しての良し悪しを元にした有害性分類を作ります。不適切発言をしたら分類器が検証して、相手のチャットbotが学習していき、より不適切発言を誘発させる網羅性と効率性の高いテストができるような流れです。

最終的にはユーザーのもとでいろいろな会話をするかと思いますが、事前にあらゆる可能性を考えて、我々の実験環境下で無限に会話をさせ続ける検査をすることに、個人的には仕事のやりがいや魅力を感じます。社会に貢献するAIを自分の手でつくれているという実感がありますね。

我々のミッションは、AIプロダクトに対して倫理的な問題点があるかどうかの報告を行うことなのですが、もともと作っていたレポートはドキュメント形式で作成していて、計算ロジックや数値データを淡々と記載していたのであまりアトラクティブではないなと思っていて。よりかっこいいと思える製品にすることで視認性が良くなると思うので、そういったレポートシステムを作っているところです。
仕事を進める上で、意識していることはありますか。
タスクのアサインや分担を適切に行うことは意識しています。私は現在開発のリードを任されていますが、チームのメンバーは一人ひとりが異なる研究バックグラウンドを持っています。そのため、事前に「この人がどのような技術を持っていて、何が得意なのか」をしっかり話し合って把握し、アサインするようにしています。将来的にはマネジメントの立場を目指しているので、適切にアサインを行って効率・効果的に組織で成果を大きくすること自体を楽しめていると思います。目の前のイシューだけを解決するのではなく、最終的にどういった社会貢献ができるのか、プロダクトがユーザーの手元に渡った際、どういった体験になるのかを考え続けています。絵空事で終わらないよう、組織全体で成果を出していきたいと考えています。

また一方で、目の前のプロジェクトに真摯に取り組み、それを成功させることも強く意識しています。経験していることは確実に身になりますし、成長できると思うので。仕事をしながら技術が後からついてくれば良いなと思っています。
おもしろいことや難しいことなど、働く中でこれまでに得た感触を教えてください。
AIの信頼性・公平性の向上の分野は複雑で大変だと感じることもありますが、分野そのものがエキサイティングだと思っていて、とても面白さを感じています。大学院時代に公平性の研究をしていたという他の人があまり持っていないバックグラウンドがあって、それを今も仕事にできているので、今後この分野の中でも貴重な人になれるんじゃないかとワクワクしながら仕事をしています。「AIを優しくする」大義名分もかっこいいと思っていて、分野全体をリードしていきたいです。

仕事をする上での難しいことは、コミュニケーションの取り方ですかね。他のチームが作ったプロダクトの検査をするため、安全性の評価を適切にしなければならないことは理解いただけるものの、問題点の報告を行う立場のためどうしても阻害要因に思われてしまうこともあるのかなと。自分たちのミッションは遂行しつつ、プロダクトを作る側の気持ちを考えながらコミュニケーションを取るように心がけています。

また、最終的な評価の基準もプロダクトやその背景や活用方法により要件が全く異なることが、難しさを感じる部分です。「プライバシー情報の有無」「不適切発言の有無」などいろいろな観点で計算し、評価を出すようにするのですが「1件出ただけでNG」なのか「全体に対して0.01%以下であれば許容」なのか、評価の基準は企画チームとの密なコミュニケーションを経て決定しています。我々が検査することで「このチームのOKがもらえたから自信を持って公開できる」と言われる役割になれたらと思っています。ダメなところを探すのではなく、安全であれば安全だと背中を押せるチームや役割でありたいですね。
LINEに入社して良かったと感じることはなんですか
2つあります。1つはAI業界全体に関わることですが、HyperCLOVAに出会えたことです。LINEを志望した最初のきっかけはスマートスピーカーでしたが、入社してからHyperCLOVAというさらにすごいプロダクトを目の前にして「入ったらもっとすごいものが出てきた!」と感動したことを覚えています。学生時代はAIアシスタントのように人間の賢い相談相手になり得るものだと思っていましたが、HyperCLOVAは大規模汎用言語モデルという具体的な方法で、自分の理想に近づいているように感じています。HyperCLOVA自体がまだまだこれから世に広がっていくフェーズのため、しっかりと自分たちの手で世に出してクオリティを担保して貢献していきたいと思っています。

2つ目は、AIという競争が激化しつつある領域の中で、まだまだ専門で取り組む人も多くないTrustworthyの領域において、専門特化した組織をかなり早い段階で組織化して取り組めていることです。多くの会社は、たとえばNLPチームの中の誰かが倫理的な観点の担当になっているような体制が多い印象があり、専門組織を持てている企業は日本に数えるほどしかないです。そのため、今の段階でAIの信頼性・公平性向上の分野に深く携わり、チームとして専門的に取り組み続けることは今後のキャリアにも大きく影響すると思います。新卒1年目で立ち上げと同時にチームに配属され、イレギュラーなことも正直多くありましたが、貴重な経験ができています。
最後にメッセージを
Trustworthy AIチームの仕事は、AIが今後の世の中で安全に活躍するための番人のようなポジションだと思っています。日陰の仕事だというイメージを持たれるかもしれませんが、AIが自分たちの手を離れる最終的な仕上げを行う立場にあって、ものすごく要になる技術を提供していると感じています。もし足を踏み入れたい方、そういった考えやビジョンに共感してくださる方がいれば嬉しいですね。