Global IT Topics Report # 15

2024.06.24

川島 宏司 川島 宏司

目次

トレンド

Mckinsey

ChatGPTが発表されてからわずか1年半で、65%の組織がAIを定期的に使用(10ヶ月前の2倍)。

2024年には、生成AIはもはや目新しいものではないとしています。
回答者の半数は、自社が 2 つ以上の業務に AI を導入していると回答し、67% は今後 3 年間で AI 投資が増加すると予想しているとのこと。

導入が最も増加しているのは専門サービスで、生成 AI は (少なくとも現時点では)マーケティングと販売 (コンテンツ、パーソナライゼーション、セールスリード)、製品とサービスの開発 (設計開発、科学文献、研究レビュー)、IT (ヘルプデスクチャットボット、データ管理、リアルタイム アシスタンス、スクリプトの提案)で最も多く使用され、組織は人的資源のコスト削減が最も進んでいると感じているとのこと。
生成 AI の使用の約 50%は既成ツールであり、残りは大幅にカスタマイズされているか、ゼロから構築されており、今後は独自のモデル、既製モデル、オープンソースモデルを組み合わせたエコシステムを構築するようになるとしています。
企業が生成 AI を本番環境に導入するには平均 1 ~ 4 か月かかっているとのこと。

課題としては、回答者の 44% が、組織がすでに AI の使用による悪影響を経験しているとし、出力の不正確さ、サイバーセキュリティ、説明可能性の欠如、AI の誤った使用、データのプライバシー、偏見、知的財産 (IP) の侵害
などが挙がっています。
積極的に利用している回答者では、トレーニングデータの量が不十分であること、データガバナンスのプロセスの定義に苦労していること、データの迅速な統合に苦労していることを報告しています。
責任ある AI ガバナンスはまだまだ不足しており、明確なガバナンスと原則を確立し、ガードレールを適用し、「堅牢なトレーニング」を実施し、プロバイダーと安全な契約を結ぶ必要があるとしています。

<参照URL>
https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-ai

Is the AI Eating SaaS?

四半期決算で、Asana、Atlassian、DataDog、Snowflake、Twilio、Workday など主要なB2B SaaSの結果は引き下げられ、株価が下がりました。
A16zのMarc Andreessenが2011年に言った、Software is eating the worldは有名な言葉ですが、LLM によってソフトウェア開発と保守のコストが大幅に削減され、従来の SaaS モデルに代わる新しいアジャイル ソフトウェア ソリューションが急増、既存の B2B SaaS ビジネス モデルが時代遅れになると言われ、今や、LLMがソフトウェア業界にとって脅威と一部では言われています。
しかし、Menlo Venturesは、「優秀な SWE が実際に行うべきすべてのことを軽視する人が多すぎる、AI は生産性を向上させ、多くのタスクを自動化するかもしれないが、”完全な自動化”に至るまで支援するのは大きな思考の飛躍だ」としています。
ソフトウェア関連の伸びが鈍化しているのは、過剰雇用や、ソフトウェア自身によってもたらされる効率化など、さまざまな要因によるものだとしています。
また、Appfolio、AppLovin、Q2 Holdings、Zetaなど、AI を早くから導入して統合するSaaS 企業が利益を享受しはじめており、そうした動きが、顧客にとって価値のある機能を生み出すことにつながり、収益化することで、B2B SaaSのより高い成長につながるとしています。
結果、What’s eating B2B SaaS is not AI というのが、VCなどでの冷静な味方となっています。

<参照URL>
https://docs.google.com/document/d/103cGe8qixC7ZzFsRu5Ww2VEW5YgH9zQaiaqbBsZ1lcc/edit
http://venturebeat.com/ai/whats-eating-b2b-saas-is-not-ai

Gartner

PaaSは、2023 年に 1,430 億ドル規模のビジネスとなり、2024 年には 21% 成長して 1,724 億ドルに達する見込み。
SaaSは、以前の2,439億ドルから上昇し、2024年には2,472億ドルに達すると予想。
AI半導体の収益は2024年に33%増の710億ドルに達し、2025年にさらに増加して920億ドル近くに達すると予測。

PaaSが、6ヶ月前の予測より40億ドル減少しているのは、Amazon CodeWhisperer や Google Gemini Code Assist・CodeGemmaなどのAI コード生成ツール導入により、開発者は自然言語クエリを使用してデータを検索し、コードベースにコピー/貼り付けできるコード行を生成できるようになったことで、複雑な PaaS 機能の必要性を排除した(収益のシフトが起きた)ためとしています。

SaaSでは、多くの企業が自社のアプリケーションを最新化し、ビッグデータや分析を活用するために
ソフトウェアベンダーに頼るようになるにつれ、市場は AIトレンドとは関係なく成長すると予想しているとのこと。

<参照URL>
https://www.gartner.com/en/newsroom/press-releases/2024-05-20-gartner-forecasts-worldwide-public-cloud-end-user-spending-to-surpass-675-billion-in-2024
https://www.gartner.com/en/newsroom/press-releases/2024-05-29-gartner-forecasts-worldwide-artificial-intelligence-chips-revenue-to-grow-33-percent-in-2024


USキャリア

AT&T

5G・光ファイバー・衛星通信のコンバージェンスが重要と強調

AT&Tが40%または50%の市場浸透率を達成する上で、顧客がどこにいてもインターネット アクセスを提供することが重要としています。
2025 年末までには 3,000 万箇所の光ファイバー接続点を整備するという目標を達成する見込みで、旧製品 (従来のメタル回線など) が5Gと光ファイバーに置き換えられつつあるとし、今後はNTNも含まれるとのこと。

<参照URL>
https://about.att.com/story/2024/john-stankey-jp-morgan-update-to-shareholders.html
https://investors.att.com/~/media/Files/A/ATT-IR-V2/financial-reports/t-usq-transcript-2024-04-24.pdf

5GFWAでCiscoと提携

Meraki MG52 および MG52E は、Cisco IoT コントロール センターを搭載したクラウド管理型 eSIM テクノロジーを提供する、初の 5G SA対応のFWA デバイスとのこと。
AT&T の統合ワイヤレス WAN サービス エクスペリエンスおよびプロビジョニングと組み合わせられ、今夏に発売される予定としています。
T-Mobile・Verizonとも、すでに採用しており、米3キャリアがCisco Meraki製品を5GFWAで提供したことになります。

<参照URL>
https://newsroom.cisco.com/c/r/newsroom/en/us/a/y2024/m05/at-t-and-cisco-introduce-a-simpler-way-to-deploy-5g-fixed-wireless-access-for-businesses.html

Verizon

衛星D2D通信プロバイダAST SpaceMobileに投資

1 億ドルの契約には、6,500 万ドルの商用前払い金 (うち 4,500 万ドルは一定の条件付き) と3,500 万ドルの転換社債が含まれ、850 MHz の周波数帯域も提供するとのこと。

消費者の需要が大きくないこと、衛星会社が独自の周波数帯域を使用できる場合に地上の周波数帯域を放棄したくないことから、他社との提携には興味がないと語っていたことを考えると、方針を切り替えたことになります。

<参照URL>
https://feeds.issuerdirect.com/news-release.html?newsid=8717191834119859

T-Mobile

US Cellarを44億ドルで買収

米国第5位のキャリアの買収により、T-Mobileは、400万人の顧客と周波数資産を得ることになりますが、US Cellularはその資産の約70%と4,382基のTowerは引き続き保有し、少なくとも2,100基の基地局について(T-Mobileは約30%を取得、600MHz、2.5GHz、24GHz)T-Mobileが長期リース契約を締結するとのこと。
買収は、規制当局の承認を含め、2025年半ばまでに取引が完了するだろうとしています。

<参照URL>
https://www.t-mobile.com/news/business/uscellular-acquisition-operations-assets
https://investors.uscellular.com/news/news-details/2024/UScellular-and-TDS-Announce-Sale-of-Wireless-Operations-and-Select-Spectrum-Assets-to-T-Mobile-for-Approximately-4.4-Billion-in-Cash-and-Assumed-Debt/default.aspx

Ciscoに続きCradlePointを企業向け5GFWA CPEに採用

X10 5G FWA ルーター、E300 ルーター、W1850 および W1855 アダプターを提供する予定とのこと。

<参照URL>
https://cradlepoint.com/press-release/t-mobile-bolsters-connected-workplace-with-addition-of-cradlepoint/

SpaceXが、T-Mobile顧客向けにD2C衛星通信サービスを提供予定

D2C対応の衛星をすでに30基以上打ち上げており、米国でこの秋に提供予定とされています。
最初にテキスト メッセージングをサポート、音声およびデータ サービスは、IoTサービスとともに、来年開始される予定とのこと。

なお、、初期のD2Dサービスでは、ユーザーは屋外にいて、通過する衛星に携帯電話を向ける必要があり、Lynk Globalなどの他のサービスは、同社の衛星が頭上を通過する日に数回しか機能しないとされています。

<参照URL>
https://www.fcc.gov/ecfs/document/105311484428351/1


ワールドワイドキャリア

Orange

Open RAN SummitでOpenRAN戦略を概説

OpenRANの大規模展開には、従来のRANと比較した技術の成熟度、相互運用性と統合性、通信事業者の「考え方の変革」の必要性、従業員のスキルアップや再教育の必要性などの課題があるとのこと。
OpenRANを導入するのは複雑なため、Orange でのOpenRAN の実際の導入は非常に段階的になるとし、現在学習段階にあるとしています。
この学習には Pikeo でのOpenRAN テスト、クラウドベースで完全に自動化された5G SA実験ネットワーク、Dell、Samsung、Wind River のサポートを受けて Vodafone と共同でルーマニアで実施するパイロット テストが含まれます 。
マルチベンダに関しては、初期段階では、定評のあるベンダーのバンドルされた事前統合ソリューションによって、実際に展開可能なソリューションの準備をスピードアップできる可能性があるとしています。
AIネイティブにする必要もあり、マルチベンダー運用と相互運用のための標準化されたフレームワークなどの点でNon RT RICが重要とし、xApps とnRT RIC の役割は現時点ではそれほど明確ではないとしています。

<参照URL>
https://www.telecomtv.com/content/open-ran-summit/orange-is-moving-ahead-with-open-ran-50383/

Nokia の Network as Code プラットフォームを使用して新しいアプリケーションを構築したい開発者向けのHucksonを主催。
アプリケーション開発者にSDK、ネットワーク API ドキュメント、アプリケーションテスト用コードを作成するためのサンドボックス、新しいアプリケーションに含めることができるコードスニペットへのアクセスを提供したとのこと。

<参照URL>
https://networkascode.hackathon.com/

Vodafone

コールセンターでMicrosoftの生成AIを組み込んだ仮想アシスタントTOBiをテスト

Microsoftとの10年契約に基づくこのテストでは、Azure Open AIベースのSuperTOBi が、 13 か国で 15 の言語を使用して毎月約 4,500 万件の顧客からの質問に対処。
対処できない問題は自動的に実際の人間に転送して、解決策を提示、顧客との通話時間が平均で少なくとも 1 分短縮され、複雑な請求の問い合わせなど、重要な顧客対応の初回解決率が 50% 向上し、全体的な応答精度も向上したとのこと。
また、Microsoft CopilotベースのSuperAgentは、カスタマーケアスタッフが単純で反復的なタスクから解放され、顧客がたらい回しにされて問題が解決されない事態を回避し、顧客のより複雑な問題に対処する時間を増やすのに役立っているとしています。

<参照URL>
https://www.vodafone.com/news/technology/vodafone-supercharging-customer-experience-with-microsoft-s-gen-ai-tools


政府・団体

Ultra Accelerator Link(UALink)Promoter Groupが発足

NVIDIA CUDAプラットフォームからの脱却を目指したオープンソースのソフトウェア・スイートを開発する団体「Unified Acceleration Foundation (UXL)」に続き、NVIDIA NVlinkに対抗するインターコネクトハードウェアとしてUALinkを開発推進するグループを、Intel、AMD、Broadcom、Cisco、HPE、Google、Microsoft、Metaなどが発足。
UALink 1.0は、1つのコンピューティングポッドで最大1,024台のAIアクセラレータ(GPU)を接続。
AMD Infinity Fabricを含む「オープンスタンダード」に基づいており、AIアクセラレータに接続されたメモリ間の
直接的なロードとストアを可能(NVIDIA GPUDirectに相当)にし、既存のインターコネクト仕様に比べてデータ転送のレイテンシを下げながら、速度を向上させるとのこと。
2024年後半にUALinkコンソーシアムを設立し、UALink 1.0は同時期に提供開始、より広帯域幅のUALink 1.1は2024年第4四半期に登場する予定としています。
最初のUALink製品は、今後2年以内に利用可能になるとのこと。

<参照URL>
https://www.businesswire.com/news/home/20240530653602/en/AMD-Broadcom-Cisco-Google-Hewlett-Packard-Enterprise-Intel-Meta-and-Microsoft-Form-Ultra-Accelerator-Link-UALink-Promoter-Group-to-Drive-Data-Center-AI-Connectivity


Tech Giants

Microsoft

Buildカンファレンスを実施、Azure AI Studio と Copilot Studio のアップデートを発表

Azure AI Studio は、Azure OpenAI サービスの一部として、OpenAI GPT-4o などの AI モデルと独自のデータを組み合わせて、データを推論するチャットアシスタントなどのアプリを構築できます。
Copilot Studio は、Copilot for Microsoft 365 (Excel、Word、PowerPoint、Edge ブラウザーやWindows の AI を活用したCopilot) をサードパーティ データに接続するためのツールを提供します。

GAとなった Azure AI Studio では、開発者が間もなく、従量課金の推論 API(開発者が Azure インフラストラクチャでホストされている生成 AI モデルにアクセスし、微調整できる API)を使用して、生成 AI を活用したアプリを構築できるModel As A Serviceを提供。
Nixtla と Core42 のモデルから提供し、将来的には Cohere、Stability AI、AI21 Labs などのモデルも提供予定とのこと。
顧客は生成 AI を利用したアプリの各バージョンを比較することでトレーニングおよびデバッグを行うことができ、運用環境でのアプリの使用状況と品質を監視することができるとしています。
また、ユーザーはさまざまな傾向を視覚化し、カスタム定義のフィルターと設定に基づいてアラートを受け取ることができます。
データへの不正アクセスを防止し、AI アプリ内の潜在的な「データリスク」を検出し、機密データに暗号化を適用し、AI アプリの使用を管理する Microsoft Purview (プレビュー版) とも統合。
AI モデルの「脱獄」(モデルの保護機能を無効にする回避策)を防止し、幻覚やモデルが全体的に事実をでっち上げた場合を検出するツールも提供。
Copilot Studioでは新しい拡張機能とコネクタが、Copilot for Microsoft 365 のプレビュー版と Teams で提供されます。
拡張機能を使用すると、開発者は、指示、データベースからの知識、プラグインからのアクションを使用してCopilotをカスタマイズできます。
コネクタには、Power Platform コネクタ、Microsoft Graph コネクタ、Power Query コネクタが含まれており、Microsoft Fabric の統合も近日中に提供される予定です。これにより、Copilotは、公開 Web サイト、SharePoint、OneDrive、Dataverse テーブル、Microsoft Fabric OneLake、Microsoft Graph や主要なサードパーティ アプリなどのさまざまなデータ ソースを使用できるようになるとのこと。

GitHub Copilot では、Copilot Extension をリリース。
Copilot Extensions のローンチ パートナーは、DataStax、Docker、LambdaTest、LaunchDarkly、McKinsey & Company、Microsoft Azure および Teams、MongoDB、Octopus Deploy、Pangea、Pinecone、Product Science、ReadMe、Sentry、Stripe が含まれます。 これらの拡張機能は GitHub Marketplace で提供されますが、開発者は独自プライベート拡張機能を作成して、内部システムや API と統合することもできるとのこと。

<参照URL>
https://learn.microsoft.com/en-us/azure/ai-studio/whats-new
https://learn.microsoft.com/en-us/power-platform/release-plan/2024wave1/microsoft-copilot-studio/

Copilot+ PC

AI処理に特化したNPUを搭載したPC上でSLM(小規模言語モデル)から回答を得られるCopilot PCを発表

Gartnerは、 AI PC が今年の PC 出荷台数の 22% を占めると予測、デバイス上の GenAI 機能と AI プロセッサの急速な導入は、最終的にはテクノロジー ベンダーの標準要件となるだろうとしています。
Acer、ASUS、Dell、HP、Lenovo、Samsung から随時リリース、Microsoft Copilot で利用できるOpenAI の GPT-4o を含む 最新の高度なモデルにアクセスできるだけでなく、1 秒あたり 40 兆回以上の演算 (TOPS) が可能なNPUを備えた新しいシステム アーキテクチャで設計されているとのこと。

Recall
PC で見たものや行ったことに仮想的にアクセス。

ライブキャプション
ビデオチャットでポルトガル語、スペイン語、フランス語、ポーランド語、ドイツ語、アイスランド語から英語へのリアルタイム翻訳を提供

画像の共同作成
テキストプロンプトを通じて画像をレンダリング。

より多くの情報をより迅速に吸収して、より良い意思決定を行える、AI の自動化機能が、通常手動で行う作業をバックグラウンドで処理できるようになるなどが期待されています。
また、Secure-Core PC となり、機密情報を保護するための追加ツールが付属しているともしています。
ハッカーがマルウェア経由でアクセスしたり、PC が物理的に削除されたりした場合に、資格情報、ID、個人データ、暗号化キーが盗まれるのを防ぐために、Microsoft の Pluton セキュリティプロセッサが使用されます。
また、Copilot+ PC には、より安全な生体認証サインインとパスワード不要のエントリを含むWindows Hello 拡張サインイン セキュリティも搭載されるとのこと。

<参照URL>
https://blogs.microsoft.com/blog/2024/05/20/introducing-copilot-pcs/
https://www.microsoft.com/en-us/security/blog/2024/05/20/new-windows-11-features-strengthen-security-to-address-evolving-cyberthreat-landscape/

Fabric に Iceberg のサポートを追加、双方向データアクセスでSnowflakeと提携

Apache Iceberg(Snowflake の顧客がMicrosoft などのサードパーティのデータ レイクに保存されているデータを活用できるようにするテーブル形式)をサポート、エンドツーエンドのデータ分析プラットフォームであるMicrosoft FabricとSnowflake Data Cloud間の相互運用性が強化され、顧客は複数の場所にデータのコピーを保管する手間が省け、長期的には大幅なコスト削減にもつながるとのこと。
*Microsoft Fabricは、外部ソースからのデータを統合するために、Apache Parquet と Delta LakeをベースとするOneLake も使用。
Snowflake はネイティブ データ ストアとして OneLake をサポートし、顧客はFabric を介して Iceberg フォーマットの単一コピーとしてデータを保存し、アクセスできるようになります。一方、OneLake の Iceberg データは Snowflake 経由でアクセスできるようになります。
両者は今後数か月かけてこの統合に取り組み、今年後半にプレビュー版をリリースする予定としています。

<参照URL>
https://www.microsoft.com/en-us/microsoft-fabric/blog/2024/05/22/snowflake-and-microsoft-announce-expansion-of-their-partnership/

Meta

マルチモーダルモデルChameleonを発表

異なるモダリティのコンポーネントを組み合わせる一般的な方法(Late Fusion)ではなく、ネイティブにマルチモーダルになるように設計されているとのこと。
モデルはまだリリースされていませんが、画像キャプション作成やvisual question answering(VQA) などのさまざまなタスクで最先端のパフォーマンスを達成し、テキストのみのタスクでも競争力を維持しているとしています。
モダリティ間で情報を統合し、インターリーブされた画像とテキストのシーケンスを生成する能力が制限される同様のマルチモーダルモデルであるGoogle Geminiは生成段階で個別の画像デコーダーを使用するのに対し、Chameleonはトークンの処理と生成の両方を行うエンドツーエンドでシームレスに推論できるモデルとのこと。
70 億および 340 億のパラメータを持つChameleon を、500 万時間を超えるNvidia A100 80GB GPUでトレーニングしたとしています。

<参照URL>
https://arxiv.org/abs/2405.09818v1
https://ai.meta.com/blog/generative-ai-text-images-cm3leon/

Amazon

FAAの許可により、ドローン配送サービスPrime Airの提供範囲を拡大

10年後までに ドローンで年間5億個の荷物を配達するという目標のもと、テキサス州カレッジステーションでの事業を拡大し、より人口密度の高い地域の顧客に提供予定。
MK27ドローンは 最高時速50マイル、注文の85%を占める5ポンド未満の荷物を運ぶように 設計されているとのこと。

<参照URL>
https://www.aboutamazon.com/news/transportation/amazon-drone-prime-air-expanded-delivery-faa-approval

Google

Google Cloud Consulting、企業の AI 導入を支援する Generative AI Ops を発表

AIワークロードを本番環境に移行するのは簡単な作業ではなく、生成AIシステム設計、大規模言語モデルアーキテクチャ、プロンプトエンジニアリング、評価などに関する広範な知識が必要であるとし、Generative AI Ops サービスにより、こうした専門知識の不足を解消し、企業が 生成AI プロトタイプを本番環境のワークロードに移行するあらゆる段階で支援するとしています。
Generative AI Ops は専門知識だけでなく、AI を構築するための最適化されたテクノロジー スタックと、幅広いモデルを開発するための広範なサービス セットも提供、異なる AI モデルには通常、非常に異なるプロンプト構造が必要であるため、各モデルに適切な技術を採用することが重要としています。
また、AI モデルはパフォーマンスを向上させ、精度を確保するために継続的に評価する必要があるとし、顧客が各生成 AI アプリに適切な評価フレームワークを構築できるように支援するともしています。
モデルの最適化と継続的なチューニングに関しては、専門家が顧客の AI システム アーキテクチャ、モデル選択プロセスの最適化、レイテンシとコストの削減などを支援できるとのこと。
加えて、顧客と協力して、生成 AI モデルのパフォーマンスを継続的に監視し、不正確さや幻覚を防ぐために必要な
観測可能性ツールを作成するともしています。
AI モデルをホストするためのクラウド環境の設定、モデルのインタラクションを管理するためのAPIの設計、モデルのパフォーマンスを評価するための負荷テストも提供するとのこと。

<参照URL>
https://cloud.google.com/blog/ja/topics/consulting/introducing-generative-ai-ops-services

Magic LeapとARで戦略的パートナーシップを発表。

詳細は書かれていませんが、 Magic Leapの光学および製造の専門知識と Googleの 技術革新能力を融合させるとのこと。

<参照URL>
https://www.reuters.com/technology/google-augmented-reality-startup-magic-leap-strike-partnership-deal-2024-05-30/
https://www.magicleap.com/newsroom/magic-leap-and-google-partnership


ベンダ

OpenAI

Wall Streetの親会社であるNews Corp.やVox Mediaと、LLMの学習に必要なコンテンツの使用に関してライセンス契約を締結

これにより、アーカイブ記事やビデオ映像などを、GPT-4oやSoraなどのAIモデルをより良くトレーニングするために使用できるほか、Wall Street Journalやその他のメディアのコンテンツをChatGPTの応答として表示することもできるとのこと。

<参照URL>
https://openai.com/index/news-corp-and-openai-sign-landmark-multi-year-global-partnership/
https://www.wsj.com/business/media/openai-news-corp-strike-deal-23f186ba

世界4大会計事務所の1社である経営コンサルティング大手のPwCは、社内で10万人がChatGPTを使用(4分の3が米国の社員)し、OpenAIの最大の顧客となるとともに、OpenAI ChatGPT Enterpriseの最初の再販業者になったとのこと。
PwCは昨年4月、3年間で10億ドルを生成AIに投資し、税務や監査、コンサルティングといったサービスの強化を図ると発表しています。
また、今回の契約が発表される以前は、ChatGPT Enterpriseを利用したい企業は、OpenAIに直接連絡を取る必要がありました。
ChatGPT のエンタープライズ向けは約 600,000 人のユーザーがおり、フォーチュン 500 企業の 93% が含まれているとのこと。

<参照URL>
https://www.pwc.com/us/en/about-us/newsroom/press-releases/pwc-us-uk-accelerating-ai-chatgpt-enterprise-adoption.html

新しい「フロンティアモデル」のトレーニングを開始するとともに、新しい安全・セキュリティ委員会を結成

次世代モデルのトレーニングを開始し、その結果得られるシステムが AGI への道のりで次のレベルの機能をもたらすことを期待するとともに、安全・セキュリティ委員会は、今後 90 日間で OpenAI の プロセスと安全対策を評価し、理事会全体に推奨事項を共有するとのこと。

<参照URL>
https://openai.com/index/openai-board-forms-safety-and-security-committee/

Anthropic

Tool UseをGA

この機能により、Claudeは、外部データ ソース、API、ツールと自律的に対話できるようになり、企業が AI を活用してタスクを自動化し、推奨事項をパーソナライズし、データ分析を合理化できるとのこと。
Anthropic Messages API、Amazon Bedrock、Google Vertex AI を使用する開発者が利用可能になるとしています。
StudyFetch、Intuned、Hebbiaなどの企業がToolUseを活用し、顧客向けパーソナライズやデータ入力の自動化、複雑なデータの分析に活用しているとのこと。

<参照URL>
https://docs.anthropic.com/en/docs/tool-use

Mistral AI

コード作成支援生成AI Codestralをリリース。

Python、Java、C++、JavaScriptなど80以上のプログラミング言語でトレーニングされたとのこと。
Codestral は、コードベースに関する質問に英語で答えるだけでなく、コーディング機能を実行したり、テストを作成したり、部分コードを「入力」したりすることができるとしています。
Mistral は、Le Chat AI プラットフォームと有料 API で Codestral のホスト版をリリースし、アプリフレームワークやLlamaIndex、LangChain、Continue.dev、Tabnineなどの開発環境にCodestralを組み込むことにも取り組んでいるとのこと。
Codestral 22B は、32K のコンテキスト長を備えており、開発者にさまざまなコーディング環境やプロジェクトでコードを記述したり操作したりする機能を提供、CodeLlama 70B や Deepseek Coder 33B など、コーディング 用に設計された他のモデルよりもすでに性能が優れており、JetBrains、SourceGraph、LlamaIndex など、複数のパートナーによって利用されているとしています。
オープンとはされていますが、著作権で保護されたコンテンツを部分的に使用してトレーニングされたのか、Codestral とその出力を商用利用することは禁止されています。
加えて「企業活動の文脈における従業員による内部使用」を明示的に禁止しています。
また、パラメータが 220 億あるこのモデルを実行するには、ハイスペック PC が必要です。
2023 年 6 月の Stack Overflow 世論調査では、開発者の 44% が現在開発プロセスで AI ツールを使用しており、26% が近いうちに使用する予定であると回答しています。
一方で、これらのツールには明らかな欠陥があり、 過去数年間にプロジェクトリポジトリにコミットされた 1 億 5,000 万行以上のコードをGitClear が分析した結果、生成 AI 開発ツールにより、コードベースにプッシュされる誤ったコードが増加、パーデュー大学の調査によると、OpenAI の ChatGPT がプログラミングの質問に対して与える回答の半分以上が間違っています。
セキュリティ研究者は、そのようなツールがソフトウェア プロジェクトの既存のバグやセキュリティ問題を増幅させる可能性があると警告しています。

<参照URL>
https://mistral.ai/news/codestral/

xAI

シリーズB60億ドルを調達

Andreessen Horowitz、 Sequoia Capital、Fidelityなどから製品開発と商品化(高度なインフラ構築含む)のために資金調達を実施。
NVIDIA H100 GPU 10 万台を搭載したスーパーコンピューターを組み立てる計画とのこと。
H100小売価格は4 万ドルに達し、Blackwell B200 の 発売により価格が 3 分の 2 に下がるとしても、xAI が来年の秋までに構築を計画しているされる10 万 GPU スーパーコンピューターのコストは依然として 10 億ドル以上になるとされます。(Oracleが協力する可能性があるとされています。)
xAIは、4 月中旬に Grok 1.5 を発表した際に、今後数か月で、マルチモーダルの能力を大幅に向上させたいとしています。

<参照URL>
https://x.ai/blog/series-b
https://www.theinformation.com/articles/musk-plans-xai-supercomputer-dubbed-gigafactory-of-compute

Cohere

20 近くの言語をサポートするオープンウェイト AI モデル Aya 23 を発表

8Bおよび35B のパラメータでリリース、重み(AI モデルの基礎となるニューラルネットワーク内の数値)をオープンソース化、サードパーティの研究者はモデルを微調整して個々のニーズに合わせることができます。
また、最新のAya 101 と比較して、Aya 23 は識別タスクで最大 14%、生成タスクで最大 20%、多言語 MMLU で最大 41.6% 向上しているとのこと。

<参照URL>
https://cohere.com/blog/aya23
https://huggingface.co/CohereForAI/aya-23-35B

Scale AI

SEALリーダーボードの結果を公開

SEAL Leader Boardは、プライベートでキュレートされた、利用不可能なデータセットに基づく最先端のLLMランキング システムであり、生成 AI コーディング、指示の追跡、数学、多言語性などの一般的なユース ケースにおける機能を評価します。

Scale AI は、AI用のトレーニングデータの作成やコンサルティングを提供する企業であり、企業が利用できる LLM が数百種類ある現在、AI のパフォーマンスに関する透明性が欠如していることから、SEAL Leader Boardを作成したとし、現時点では、OpenAI の GPT ファミリーが、AI モデルの4ドメインのうち 3 つで 1 位にランクされ、Anthropic の Claude 3 Opus が 1ドメインで 1 位、Google の Gemini モデルも好成績を収め、いくつかのドメインで GPT と並んで 1 位にランクされています。

<参照URL>
https://scale.com/blog/leaderboard

NVIDIA

四半期決算で2万社の生成AIスタートアップがNVIDIAプラットフォーム上で開発を行っていると発表

生成型 AI のスタートアップは数多くあり、マルチメディアからデジタル キャラクター、デザインからアプリケーションの生産性、デジタル バイオロジーまで、さまざまな分野に 15,000 社から 20,000 社ほどあるとしています。
企業がNVIDIA CUDAソフトウェアとTensor Coreアーキテクチャを使用してAIアプリケーションを市場に投入しようと競争する中、NVIDIAのGPUに対する需要は「信じられないほど」大きいと強調。
消費者向けインターネット企業、クラウドプロバイダー、自動車会社、医療機関はすべて、何千ものNVIDIA GPU上に構築された「AI工場」に多額の投資を行っているとのこと。
NVIDIA の Hopper、Blackwellなどの需要は来年まで供給を上回ると予想しているとしています。

<参照URL>
https://investor.nvidia.com/events-and-presentations/presentations/default.aspx

Computex 2024で開発者向けAIツールを発表

既存の事前トレーニング済みの生成 AI モデルのほとんどは汎用的で、DC向けに設計されています。
これらのモデルは、一般的に、個性を感じさせずに、中立的な口調で応答します。
ゲームなどの一般消費者向けアプリを開発する開発者は、トピックに沿って、作業内容に一致するスタイルで応答でき、また、実行されているハードウェアに合わせて最適化する必要があります。
NVIDIA RTX AI Toolkitは、Windows アプリケーション用の AI モデルを最適化して展開し、RTX AI PC でのモデルのカスタマイズ、最適化、展開のためのツールとSDKのスイートで、AI モデルが実行されているマシンと、ゲームや生産性アプリなどのアプリケーションを考慮することもできるとのこと。
500 を超える PC アプリケーションとゲーム、および 200 を超える OEM ラップトップ デザインを高速化するRTX AIの一部となります。
また、ゲーム内で Nvidia Ace デジタル ヒューマンを展開したり、顧客とやり取りするアバターとして使用するために最適化され、動的にオーケストレーションし、負荷分散するNvidia AI 推論マネージャーとともに、ローカルまたはクラウドで実行できるマイクロサービスとして展開できる推論マイクロサービスNIMも発表しています。
ACE NIM は、自然言語理解、音声合成、顔のアニメーションなどのために、デバイス上でローカルに実行される高品質の推論を提供するとのこと。
早期アクセスを発表した、Nvidia AI Inference Manager (AIM) ソフトウェア開発ツールキットは、デスクトップやクラウドで AI アプリを実行する PC アプリケーション開発者の AI 統合プロセスを簡素化。
AI モデル、エンジン、依存関係を NIM 形式で事前構成でき、CPU、NPU、GPUなど複数種類のプロセッサで、TensorRT、DirectML、Llama.cpp、PyTorch-CUDA などの主要な推論バックエンドをサポートするとしています。

<参照URL>
https://developer.nvidia.com/rtx/ai-toolkit
https://www.nvidia.com/en-us/ai/

NVIDIAのデジタルツイン事例を発表

Delta Electronics、Foxconn、Pegatron、Wistron は、ロボット工学を活用した施設の構築、シミュレーション、運用にリファレンスワークフローにNvidia Omniverse、Metropolis、Isaacを使用しているとのこと 。
170 以上の工場を運営するFoxconnは、Siemens Xcelerator プラットフォームの Teamcenter などのツールから 3D データを仮想的に統合するプラットフォームである Nvidia Omniverse 上で自社工場のデジタル ツインを開発、Nvidia Blackwell HGX システムを高効率で生産できるようになったとしています。

<参照URL>
Building Digital Twins of Foxconn’s Robotic Factories
https://blogs.nvidia.com/blog/foxconn-digital-twin-ai/

AMD

Computex 2024でAIデータセンター向けCPU、NPU、GPU戦略を発表

AMD Instinct アクセラレータのロードマップを発表し、2024年Q4に提供開始予定のAMD Instinct MI325X アクセラレータをプレビュー、(288 GB の HBM3E メモリと 6 テラバイト/秒のメモリ帯域幅)AMD CDNA 4アーキテクチャを搭載したAMD Instinct MI350シリーズが2025年に利用可能になる予定で、AMD CDNA「Next」アーキテクチャに基づくAMD Instinct MI400 シリーズは2026 年に発売予定とのこと。
2024 年後半に発売予定の第 5 世代 AMD Epyc サーバープロセッサもプレビューしています。
また、ノート PC およびデスクトップ PC 向けには、AMD AI 対応モバイル プロセッサの第 3 世代である AMD Ryzen AI 300 シリーズと、AMD Ryzen 9000 シリーズ プロセッサも発表しています。(最大 50 TOP の AI 処理性能を実現する AMD XDNA 2、AMD RDNA 3.5)

<参照URL>
https://www.amd.com/en/corporate/events/computex.html

Qualcomm

AI PC アプリ開発専用Snapdragon Dev Kit for Windowsを発表

Snapdragon X Elite チップの Developer Edition を搭載し、開発者が AI 搭載プログラムを構築するために必要なランタイム、ライブラリ、フレームワークも提供、PC 向け次世代オンデバイス AI アプリケーションの開発を加速するとのこと。

<参照URL>
https://www.qualcomm.com/developer/windows-on-snapdragon

Snowflake

本番環境でMLモデルとLLMアプリをテスト、デバッグ、監視するツールを提供する AI スタートアップTruEraを買収

TruEraは、開発環境から本番環境までのライフサイクル全体にわたって機械学習モデルとアプリを評価、デバッグ、監視する包括的な可観測性プラットフォームを提供します。
また、LLMにおいて、 LLM の入力、出力、中間結果を評価でき、幻覚、不公平な偏見、毒性などのリスクから保護するとのこと。
Snowflake Data Cloudでホストされているデータを使用して生成的かつ予測的な AI アプリケーションを構築するためのエンドツーエンドのプラットフォームを強化するもで、生成 AI アプリを構築するためのモデルとツールを提供しており、構築されたアプリが効果的で信頼できるものとなるように機能を追加するためとされます。

<参照URL>
https://www.snowflake.com/blog/snowflake-acquires-truera-to-bring-llm-ml-observability-to-data-cloud/
https://truera.com/snowflake-is-acquiring-the-truera-ai-observability-platform/

Samba Nova

NVIDIA代替のスタートアップの一つSamba Nova、Llama 3 8B パラメータ命令モデルで 1 秒あたり 1,000 トークンを処理したと発表

Samba Novaは、学習・推論に利用できるReconfigurable dataflow unit (RDU)とソフトウェアスタック Samba-1・Samba-CoE (Combination of Experts) と呼ぶ 1 兆パラメータ モデルを提供します。
今回のベンチマークは、Nvidia H100 で達成可能な一般的な出力トークン/秒速度よりも数倍高速とのこと。

<参照URL>
https://sambanova.ai/resources/sambanova-brakes-1000-t/s-barrier

VMware

Avi Load Balancer のクラウド ワークロードの拡張と管理機能を強化

2019 年に買収したAvi Networksのロードバランサとネットワーク監視機能を持つ製品である Avi Load Balancer は、ハイブリッド クラウド環境を対象としたソフトウェアベースのロードバランサで。
VMware Cloud Foundation、 VMware Tanzu などのKubernetesワークロード、モバイル5Gワークロードなどの
プライベート クラウド環境に最適としています。
Tanzu Kubernetesランタイムおよび Tanzu Application Service (TAS、旧 Pivotal Foundry) と統合、DevOps向けでは、Aria Automation (旧 vRealize Operations) と統合するとともに、VMware Cloud Foundation (VCF) プライベートクラウド向けのロード バランシング機能を提供、Kubernetes ワークロードでは、 Gateway APIがサポートされ、Ingress展開が簡素化され、ルートごとに Avi の分析が拡張されるとのこと。

<参照URL>
https://www.vmware.com/products/avi-load-balancer.html
https://docs.vmware.com/en/VMware-Avi-Load-Balancer/30.2/Release-Notes/GUID-DDBAB854-D5EA-453F-9827-F1EF13E472ED.html

Github

JFrogと提携

GitHub はソース コードに重点を置き、JFrog はバイナリに重点を置き、GitHub はJFrog Artifactory を使用しており、JFrog がソースコードの管理に GitHub を使用しています。
AT&T のような顧客は、同じ認証情報を使用して GitHub と JFrog の間を行き来するより簡単な方法を望んでおり、ソース コードからバイナリへ、そしてその逆へ、コードのライフサイクルを追跡するトレーサビリティも望んでいるとのこと。
こうしたエンドツーエンドのライフサイクルを実現するため、今回の提携で、両プラットフォーム間でソースからバイナリパッケージまでコードをトレースする機能、シングル サインオンのサポート、ロール マッピングを含む統合プロジェクト構造などが含まれ、将来的には、GitHub と JFrog のそれぞれのセキュリティツールからのソースとバイナリに重点を置いたセキュリティスキャンの結果を 1 つの画面で確認できる統合ダッシュボードも提供される予定とのこと。
また、JFrogとCopilotの緊密な統合によりCopilot Chatが拡張され、開発者はJFrog Catalog に保存されているメタデータに基づいて、GitHub の Copilot とチャットして適切で安全なソフトウェア パッケージを選択でき、それらを最も安全に保護する方法、JFrogプロジェクトの設定方法などについて質問できるようになったともしています。

<参照URL>
https://github.blog/2024-05-29-github-and-jfrog/
https://jfrog.com/ja/jfrog-and-github/

Netskope

illimioとパートナー提携

クラウド ワークロードの量は爆発的に増加しており、今後もさらに増える一方なため、アプリケーションは起動したり停止したり、変更したり、開発から本番へ 移行したりすることがますます動的に発生するため、アクセスを制御する必要があります。
Netskope Cloud Exchange を介して Illumio の ZTS と Netskope の ZTNA Next を統合、顧客に追加コストをかけずに、より包括的なゼロトラスト セキュリティ フレームワークを提供するとのこと。
Illumio ZTS のアプリケーション間のリスクベースの可視性と、Netskope ZTNA Next のユーザー対アプリケーションベースの可視性を組み合わせ、ハイブリッド環境下での完全な可視性を実現。
特定のアプリケーションにアクセスしようとしていたのは誰か、具体的にどのようにアクセスしているか、たとえば、ワークロードが開発から本番環境に移行すると、セキュリティ ポリシーが自動的に更新され、ワークロードの変更が反映され、不正アクセスが防止されるとしています。

<参照URL>
https://www.illumio.com/ja/news/illumio-and-netskope-announce-zero-trust-partnership

Broadcom

DCとクラウド環境におけるAI/MLワークロードの需要に合わせたBCM57608 400G NICを発表

BCM57608 400G NIC は、極めて高い帯域幅使用率、断続的なデータサージ、長時間のジョブ継続時間など、AI の従来とは異なるネットワーク要件を満たす 400G NIC は 5nm プロセスを使用し、PCIe Gen 5.0 に対応。
400 Gbps のスループット、ハイスケール RDMA 機能、 AI ワークロード向けに最適化された低消費電力を特長とするとのこと。
また、Ultra Ethernet Consortium (UEC ) のAI 向けに最適化された新しい技術により
out-of-order packet placement with in-order completion
selective ACK/retransmission
packet-level multipathing across multiple paths
configuration-free congestion control algorithms
といった機能も提供されます。

<参照URL>
https://docs.broadcom.com/doc/BCM57608-PB

川島 宏司 川島 宏司

2007年中途入社、十数年に渡り通信キャリア様コア・データセンターネットワークの仕様策定/設計/構築に従事。 3年間の米国駐在を経て、通信キャリア様向け中長期戦略を主務とする傍ら、社内外に海外トレンド発信・新製品紹介も行う「いろいろやってる職」の人。