誰もが生成型 AI という金鉱に突入しています。少なくとも表面的にはそう見えます。 最近、私の受信箱に届くプレスリリースで、生成 AI について何らかの形で言及されていないものはほとんどありません。
しかし、さらに深く掘り下げてみると、生成 AI が現在最も大きな影響を与えているのはマーケティングであることがすぐにわかります。
私たちが今目にしているのは、人々が簡単に成果をあげようとしていることです。 大幅な開発や研究を必要とせずに簡単に「取り付ける」ことができる機能は、瞬間接着剤で貼り付けられ、出荷されています。
テクノロジー、製造、ヘルスケアを問わず、ほとんどの企業はより慎重なアプローチを取っています。 もっと戦略的なアプローチだと言ってもいいでしょう。 そして、これは私のブログなので、それができるのです。
最近のExtraHopの調査で認識を判断すると、生成AIの使用方法に対してより批判的になる理由はよく知られています。 最大の懸念は、信頼性とセキュリティの 2 つに分かれます。
生成 AI の分野では、信頼性とは正確性と信頼性がすべてです。 コード、構成、コンテンツなど、受け取った応答が正確かつ正しく、偏見に満ちていないことを信頼できる必要があります。
セキュリティの領域では、私たちはこれまでと同じ古い懸念、そしてそれ以上の懸念を抱いています。 今では、顧客や従業員の個人情報の漏洩だけでなく、企業秘密や知的財産が世界中に漏れてしまうことも問題になっています。
信頼性をもって課題を解決するには、(a) 大量のトレーニングと微調整、または (b) 生成 AI がソリューションの一部にすぎず、高度なプロンプト エンジニアリング手法を活用して独自の応答を検証するアーキテクチャ アプローチが必要になるため、多大な労力がかかります。 どちらも時間とお金を必要とするため、生成型 AI ソリューションが市場を形成するとは考えられません。 まだ。 それは来るでしょうが、時間がかかるでしょう。
セキュリティ上の課題は、対処が容易であると同時に困難でもあります。 企業秘密や知的財産の漏洩という課題を解決するには、(a) LLM の独自のインスタンスを展開して運用する (およびそれに伴うすべてのこと)、または (b) 問題を中心に設計する、のいずれかを行う必要があります。 これは、LLM の生成機能を主要なソースとしてではなくツールとして使用する GPT エージェントを開発することを意味します。
たとえば、収集したデータが戦略的に重要である可能性があることを忘れがちです。 私が市場活動を追跡するために使用するモデルは、一見無害に思えるかもしれませんが、F5 が市場をどのように考え、その市場で競争する計画を持っているかが明らかになります。 それは戦略的な意義を持っています。 したがって、これを分析のために公立の LLM に引き渡すことは望ましくありません。 これに、生成 AI は表形式のデータの分析がひどく (本当にひどい) という現実を加えると、これは悪い使用例のように思われます。
しかし、 OpenAI 関数を活用して Python のデータ分析機能を活用するのは、決して悪い考えではありません。 これには、OpenAI にデータを単純に渡して分析するのではなく、GPT エージェントを構築する必要があるため、時間と開発の労力がかかりますが、信頼性とセキュリティの両方の課題を解決します。
顧客や従業員の個人情報が誤って漏洩した場合、データ マスキングというより簡単な解決策がすでに存在します。
現在、データ マスキングは、開発者が機密データを公開するリスクなしに実際のデータでテストできるため、開発での使用がすでに増加しています。 しかし、これは、露出を防ぐ方法として生成 AI と組み合わせて使用する場合にも同様に当てはまります。 すでに利用可能なオープンソース ライブラリやツールが多数あり、簡単に統合できます。これは、ほとんどの生成 AI が API 駆動型であり、API によって機密データの要求を傍受して検査することが容易であるためです。
データ マスキングを使用して生成 AI のセキュリティ上の懸念を解決すると、開発と運用の両方で機能し、アプリケーションのライフサイクル全体を通じて機密データが公開されないようにすることができます。
生成 AI が登場し、他のすべてのテクノロジーを凌駕する以前から、データ マスキングは増加傾向にあったのは確かです。 しかし、生成 AI は、アプリケーション配信とセキュリティの領域だけでなく、アプリ開発においてもデータ マスキング機能の促進剤となる可能性があります。