クラウドネイティブ化、オープンAPIにより、NaaSやCPaaSを実現、多様な企業ニーズに応え、新たな収益機会を創出することで、今後 5 ~ 7 年で 1,000 億~ 3,000 億ドルの業界収益を生み出す可能性があるとのこと。
<参照URL>
https://www.5gamericas.org/the-programmable-5g-network-and-api-ecosystem/
顧客の多くは AI プロジェクトの拡張に困難を抱えており、約 85% の顧客が AI を本番環境に導入していない。
「人間中心のアプローチ」が重要であり、AI は自然言語インターフェースを通じて技術者以外のユーザーにもアクセス可能であるべきであるとする。
多くの企業にとって、データ準備の作業はまだ残っている。
多くのテクノロジーベンダーはデータ管理のコスト削減に競い合っており、GenAI自体がデータの整理に役立つ。
しかし、企業は依然として高度なデータ管理を必要としている。
具体的には、企業は GenAI に使用されている非構造化データに何が含まれているかを把握し、データに適切な保護とアクセス権が与えられていることを確認する必要がある。
データ管理を放棄することはできない。たとえGen AIツールが技術的にデータ管理を実行できたとしても、データを乱雑なままにしておくとコストがかかる。
<参照URL>
http://fierce-network.com/cloud/databricks-genai-has-changed-name-game
米国では現在、DASに代わり、これまで以上に多くの支出が複数のキャリアに接続できるようにするCBRSを使ったニュートラル ホストプライベートネットワークに向けられている。
ニュートラル ホスト プライベート ネットワークの導入は、商用展開と PoC の両方で 100 を超えており、その半分以上が米国にある。(Meta、Stanford Helthcare、ホテルや大学など)
IT およびセキュリティ リーダーの84% が、フィッシング攻撃やスミッシング攻撃を仕掛ける際にAI を悪用した攻撃戦略が使用される場合、その特定と阻止がますます複雑になっているとする。
その結果、セキュリティリーダーの51% が、 AI を利用した攻撃を組織が直面する最も深刻な脅威として優先。
ディープフェイクによる世界の企業の損害は2023年に123億ドルに上り、2027年までに400億ドルに急増すると予測。
関連事案は、2024年に50~60%増加し、全世界で14万~15万件達すると予想される。
セキュリティ リーダーの大多数 ( 77% ) が AI セキュリティのベストプラクティスを知っていると確信している一方で、2025 年に大幅に増加すると予想される武器化された AI 攻撃に対抗する準備が現在組織にあると考えているのはわずか35%。
セキュリティ リーダーの 10 人中 6 人が、自社の組織は現在の AI を利用した脅威や攻撃に耐える準備ができていない。
2025 年は、リアルタイムの脅威とエンドポイントの監視、SoCのアラート疲労の軽減、パッチ管理の自動化、敵対的 AI アプリとツール、プラットフォーム、技術が普及している一方で、ほとんどの組織は準備ができていないとされる。これまで以上に高い精度、速度、規模でディープフェイクを識別するために必要な技術的必須条件として AI が役割を果たす年となる。
<参照URL>
https://www.keeper.io/hubfs/top-data-threats-insight-report-EN.pdf
https://www2.deloitte.com/us/en/insights/industry/financial-services/financial-services-industry-predictions/2024/deepfake-banking-fraud-risk-on-the-rise.html
米国最大の光ファイバー インターネット プロバイダーでもあるAT&T は2800万以上の拠点に光ファイバーを設置しており、2025年末までに3000万拠点を超える見込みであり、当初の建設目標を1,000万から1,500万地点ほど上回る機会が広がる可能性があるとしており、光ファイバーネットワークをより迅速に拡大するため10年以上の契約をしたとのこと。
VerizonがFrotierを買収し、BellCanadaがZipfly Fiberを買収、ComcastがDOCSYS+HFCでブロードバンド提供を拡充するなど、米国ではブロードバンド普及+AI DCにより、光ファイバーネットワークが活況です。
AI 推論を高性能かつ安全に実行するには、プライベート データ センターとエッジ ロケーションへの相互接続が必要とされ、AIのボトルネックは、GPU供給に取って代わってネットワークがなる可能性があるとされています。
Lumenは、顧客に代わって新しい光ファイバールートを設置し、将来的に光ファイバー容量をさらに拡大できるようにするとしています。
より大容量の AI およびデジタル サービスに対する将来の顧客需要に迅速かつ確実に対応するために必要な処理能力を 5G 無線に提供するため、スペインのマラガにあるボーダフォンの研究所で、両社のエンジニアがAMD Zynq UltraScale+ RFSoC(無線周波数システムオンチップ)デバイスを使用して無線ハードウェアをテストしているとのこと。
シングルチップの無線プラットフォームで、Armプロセッサを含む複数の無線機能を組み合わせることができ、特定用途向け集積回路(ASIC)などの既存のデバイスとは異なり、AMD Zynq UltraScale+ RFSoCは、 AMD Vitis Design ソフトウェアを使用して、設置後にリモートで変更でき、特定の無線構成セットに合わせてカスタム設計できるとしています。
<参照URL>
https://www.vodafone.com/news/technology/vodafone-and-amd-working-together-to-develop-next-generation-mobile-base-stations
https://www.amd.com/en/products/adaptive-socs-and-fpgas/soc/zynq-ultrascale-plus-rfsoc/zynq-ultrascale-plus-rfsoc-dfe.html
SKTは、Global Telecom AI Allianceにおけるリーダーシップ と「世界初のテレコムLLM」の開発、自社のGPU基盤に基づき、2030年までにAIサービスが収益の35%を占めると予想しているとのこと。
これまでにAI企業に5000億ウォン(3億6000万ドル)を投資しており、データセンターソリューションプロバイダーの Smart Global に2億ドル、Anthropicに1億ドル、Lambdaに2000万ドルを投資しています。
AIDCの容量に対する需要はすでに供給を上回っており、韓国で建設中のデータセンターの80%がすでに貸し出されているとし、AIDCが最初の主要収益源になるともしています。
将来的には、モバイル基地局に配備された、ハイパースケールAIDC、クラウドベースのGPUaaS、エッジAIで全国的な「AIインフラストラクチャ・スーパーハイウェイ」を構築するとのこと。
Meta、Stability AI、Mistral など、多くの「オープンソース」モデルは基本的にオープンソースとは名ばかりであるとされています。
学界および業界による数年間にわたる協力の成果である OSAID は、AI システムが本当にオープンソースであるかどうかを誰もが判断できる標準を提供するとしています。
オープンソースAI モデルとされるには、人間が「実質的に」再現できるほど十分な設計情報を提供する必要があり、モデルは、トレーニング データに関する関連情報 (出所、データの処理方法、データの入手方法やライセンス方法など)も開示する必要があるとしています。
また、モデルをあらゆる目的で使用したり、誰かの許可を求めることなく変更したりする自由などが要求されます。
Llamaがこれに該当しないのは明確(商用利用に関する制限、トレーニング データセットへのアクセス不可など)なため、Metaは即刻避難しています。
<参照URL>
https://opensource.org/ai/open-source-ai-definition
企業がプロバイダーを切り替えようとする際に「制限的な契約に閉じ込められ、高いコストと障壁に直面する」ケースが増えているとして、Google を始めとして、Centerprise International、Civo、Gigas、ControlPlane、DTP Group、Prolinx、Pulsant、Clairo、Room 101のクラウドプロバイダ10社で結成。
クラウド市場調査を実施し、その結果を欧州連合と英国の規制当局に提示するとともに、競争と市場の公平性に関する協議を行うとしています。
<参照URL>
https://opencloudcoalition.com/
Amazonは9月、従業員に対し、2025年から週5日オフィスに復帰するよう求め、AWS CEO は以前、従業員に対し、話を聞いた従業員 10 人中 9 人がこの方針を支持していると語りましたが、従業員は、RTO 方針が広く支持されているという主張を否定、多くの従業員の経験と矛盾していると非難しています。
フェニックス都市圏ウェストバレー地区の Amazon 顧客は、家庭用品、美容用品、事務用品、健康用品など、重量5 ポンド以下の約 50,000点について、天候が飛行に適しており、夜間でない限り、ドローン配送が選択可能とのこと。
トールソンの出荷拠点から直接AmazonのMK30ドローンが配送し、最大1時間以内に届けるとしています。
<参照URL>
https://www.aboutamazon.com/news/transportation/amazon-drone-delivery-arizona
テキストをハイライトするだけで、「このコードを最適化する」、「コメントを追加する」、「テストを書く」などを行得るとのこと。
Anthropicの Claude 3.5 Sonnet モデルを採用しており、無料で利用できますが、コード チャット、デバッグ、テストなどの特定のアクションには月間制限 (月 50 回) があり、月額 19 ドルのPro版で制限が少なくなるとしています。
<参照URL>
https://aws.amazon.com/jp/blogs/devops/amazon-q-developer-inline-chat/
Project Ameliaは、Echo Frameをベースに、小さな埋め込みディスプレイを追加、装着者にターンバイターン方式のナビゲーション指示を表示する計画とのこと。
配達地点に早く到着できるようになるだけではなく、障害物を回避したり、エレベーターから降りた後にどこへ行くかを支援、配達員が顧客のために配達された荷物を撮影できるようにする灯されています。
トレーニングと推論の両方をサポートする第6世代のTPU Trilliumの提供開始、NVIDIA H200 GPUを搭載し、Titanium ML ネットワーク アダプタを利用する、A3 Ultra 仮想マシンの近日提供開始、Googleの独自Arm CPU Axionベースの仮想マシン C4A VMの提供開始を発表。
加えて、AI Hypercompute Clusterと呼ばれる高度にスケーラブルなクラスタリングシステム、Hyperdisk MLブロックストレージ、Parallelstore並列ファイルシステムも追加しています。
そのほか、10,000 ノードを超えるクラスターが必要となる2兆パラメータを超える大規模なモデルを見据えて Kubernetes Engine の容量をアップグレードし、現在の 15,000 ノード クラスタのサポートから 65,000 ノード クラスタのサポート( 250,000 個のTPU)に拡大しています。
<参照URL>
https://cloud.google.com/blog/products/compute/trillium-sixth-generation-tpu-is-in-preview
2024年5月のI/O開発者会議でデモを行ったProject Astraは、周囲の世界を認識して関連する質問に答えることができるスマートフォンアプリや、ユーザーに代わってアクションを実行できるAIアシスタントなどが想定されています。
<参照URL>
https://blog.google/inside-google/message-ceo/alphabet-earnings-q3-2024/
https://www.theinformation.com/articles/google-preps-ai-that-takes-over-computers
Google 検索のデータを基にプロンプトの結果を生成できるようになり、より最新のデータに基づいたより正確な応答が可能になるとのこと。
Gemini API のユーザーはグラウンディングされたクエリ 1,000 件につき35 ドルの有料プランに加入する必要があり、AI Studioでは、グラウンデッド クエリの結果が、モデル自体のデータのみに依存するクエリの結果とどのように異なるかを簡単に確認できるとしています。
米国の Google マップ ユーザーは、Geminiを活用して新しい訪問先を見つけたり、さまざまな場所に関する質問ができるようになるとのこと。
<参照URL>
https://blog.google/products/maps/gemini-google-maps-navigation-updates/
MobileLLM は、スマートフォンやその他のリソースが制限されたデバイス向けに、パラメータ数は 1 億 2,500 万から 10 億程度、モバイルハードウェアの限られたメモリとエネルギーで動作するように設計されています。
Meta の研究では、サイズよりもアーキテクチャを重視することで、適切に設計されたコンパクトなモデルがデバイス上で直接、堅牢な AI パフォーマンスを実現できるとしています。(350M バージョンは、はるかに大型の Meta Llama-2 7B モデルの API 呼び出しパフォーマンスに匹敵)
現在はクリエイティブ・コモンズ4.0非営利ライセンスでのみ利用可能であり、企業が商用製品で使用することはできません。
<参照URL>
https://huggingface.co/collections/facebook/mobilellm-6722be18cb86c20ebe113e95
GelSight は Meta と協力し、Meta が人間レベルのマルチモーダルセンシング機能を備えた触覚指先と表現するDigit 360 を来年市場に投入するとのこと。
Meta のDigitセンサーの後継である Digit 360 は、デバイス上の AI チップと約 18 の「センシング機能」を使用して触覚信号をデジタル化し、周囲の変化を検出するとしています。
Wonik は、来年発売予定の次世代Allegro HandにDigit 360 を備え、触覚センサーからのデータをホストコンピューターにエンコードする制御ボードが搭載される予定とのこと。
<参照URL>
https://ai.meta.com/blog/fair-robotics-open-source/?utm_source=twitter&utm_medium=organic_social&utm_content=video&utm_campaign=fair
https://digit.ml/cfp
人民解放軍(PLA)と関係のある中国の研究者らが、Llama 2を使用して防衛用途のツールを開発したとのReuterの報道を受け、米国政府機関および国家安全保障アプリケーションに取り組む請負業者に提供すると発表し、Accenture、AWS、Anduril、Booz Allen、Databricks、Deloitte、IBM、Leidos、Lockheed Martin、Microsoft、Oracle、Palantir、Scale AI、Snowflake などの企業と提携し、政府機関にLlamaを提供するとのこと。
Oracle は Llama を使用して航空機のメンテナンス文書を処理、Scale AI は、特定の国家安全保障チームのミッションをサポートするために Llama を微調整、Lockheed Martin は、コード生成などのユースケース向けに防衛分野の顧客に Llama を提供、など事例を上げています。
<参照URL>
https://about.fb.com/news/2024/11/open-source-ai-america-global-security/
iPhone 15 Pro および Pro Max、すべての iPhone 16 モデル、A17 Pro チップまたは M1 以降を搭載した iPad、または M1 以降を搭載した MacでApple Intelligenceの発表されている一部の機能が使えるようになります。
<参照URL>
https://www.apple.com/newsroom/2024/10/apple-intelligence-is-available-today-on-iphone-ipad-and-mac/
職務記述書を作成することから、候補者を見つけて彼らと関わることまで、幅広い採用業務をサポート、採用担当者の最も反復的なタスクを引き受け、人材を見つけるために多くの準備をすることなく、要件に合う人材を見つけやすくするとのこと。
今後、面接のメッセージングやスケジュールのサポート、面接前や面接後に候補者が質問した場合のフォローアップの処理など、さらに多くの機能が近々追加される予定で、すでに一部の顧客(AMD、Canva、SIEMENS、チューリッヒ保険などの大企業を含む)で利用され、今後数か月でさらに広範囲に展開される予定としています。
<参照URL>
https://business.linkedin.com/talent-solutions/hiring-assistant
ChatGPT Searchは、さまざまなオンラインソースから情報を得て、質問に「タイムリーな回答」を返すように設計されているとのこと。
スポーツのスコア、ニュース、株価など、Web からの情報や写真とともに、関連ソースへのリンクを提供し、フォローアップの質問をして、進行中の検索を絞り込むこともできるとしています。
ChatGPT Plus および Team ユーザーは、まずモバイルと Web で ChatGPT Search にアクセスできるようになり、OpenAI のEnterpriseおよびEducationの顧客は今後数週間以内に ChatGPT Search を利用できるようになるほか、無料ユーザーも利用できるようになるとのこと。
Techcrunchは、Googleキラーにはまだならない、現時点では、日常的に使用するにはまだ実用的ではない、としています。また、MetaもMeta AI チャットボットにカスタム検索エンジンを統合する計画との報道があります。
なお、一部のパブリッシャーは、ChatGPT Search や Google の AI Overviews などの AI 生成の概要に抗議し、情報源となっているサイトへのトラフィックを食いつぶす恐れがあると主張しています。
ある調査では、AI Overviews は 記事リンクを軽視するため、パブリッシャーのトラフィックの約 25% に悪影響を与える可能性があるとされています。
<参照URL>
https://openai.com/index/introducing-chatgpt-search/
https://www.theinformation.com/articles/meta-develops-ai-search-engine-to-lessen-reliance-on-google-microsoft
http://techcrunch.com/2024/11/04/chatgpt-search-is-not-openais-google-killer-yet
チップ不足と調達遅延、そしてトレーニングの高コスト化を背景に、TSMCおよびBroadcomと協力して自社製AIチップを開発しており、AIのトレーニングにはNVIDIAのチップだけでなく、AMDのチップも使い始めているとされています。
OpenAI は数か月前から Broadcom と協力し、リアルタイムアプリケーションで新しいデータで予測や決定を行うために訓練されたモデルを適用するプロセスである推論を行うモデル実行用の AI チップを開発しており、早ければ 2026 年にも登場する可能性があるとのこと。
Apache 2.0 ライセンスの下でリリースされた新しいモデルには、135M、360M、1.7Bパラメータの 3 つのサイズがあり、処理能力とメモリが限られているスマートフォンやその他のエッジ デバイスへの導入に適しているとのこと。
テキストの書き換え、要約、関数の呼び出しなど、さまざまなアプリケーションをサポート、コンパクトなサイズのため、プライバシー、遅延、接続性の制約によりクラウドベース AI が実用的でないシナリオで導入できるとしています。
1.7B パラメータ バージョンは、いくつかの主要なベンチマークで Meta のLlama 1B モデルを上回っています。
<参照URL>
https://huggingface.co/collections/HuggingFaceTB/smollm2-6723884218bcda64b34d7db9
無料の Claude ユーザーと Anthropic のプレミアム プランに加入しているユーザーの両方が利用でき、iOS、Android、iPadOS では、ユーザーは最大 10 分間のメッセージを録音してアップロードし、Claude に書き起こして返信させることができるとのこと。
なお、PC 上でタスクを実行できるようになるComputer Use 機能は含まれません。
<参照URL>
https://support.anthropic.com/en/articles/10065433-installing-claude-for-desktop
AWS上のPalantirのAIプラットフォーム(AIP)上でClaude 3およびClaude 3.5のAIモデルが利用可能となり、Impact Level 6(IL6)認証を取得した高度なセキュリティ環境で運用され、機密情報から極秘情報までの取り扱いが可能となり、複雑なデータの高速処理と分析、パターンやトレンドの特定、文書レビューの効率化、時間に制約のある状況での意思決定支援が可能になるとのこと。
年末まで毎月 25 ドルの API クレジットが無料で提供されるとのこと。
xAI の API は、入力トークン 100 万個あたり 5 ドル、出力トークン 100 万個あたり 15 ドルで、OpenAI の GPT-4o モデルは 2.50 ドル / 10 ドル、 Anthropic の Claude 3.5 Sonnet モデルは 3 ドル / 15 ドル、API を介した 1 回の対話で入力または出力できるトークンの数=コンテキストウィンドウも少ないなど、比較すると高価であるため無料提供を行ったようです。
加えて、OpenAI および Anthropic SDKなどと互換性があるとのこと。
また、Grokの次期バージョンは、ビジョンモデルやLLM がユーザーからのコマンドを受け取り、接続されている他のアプリやサービスの機能にアクセスし、ユーザーに代わってそれらを実行する関数呼び出しをサポートするともしています。
<参照URL>
https://x.ai/blog/api
GitHub リポジトリ、GitHub Actions、Microsoft の Azure CosmosDB などを既定のデータベースとして使用し、自然言語で小規模な Web アプリをすばやく構築できるとともに、コードを表示して編集することもできるとのこと。
アプリを構築するには、プロンプトから開始し、Spark が数秒以内にプレビューを表示、ボットとやり取りしながらアプリを微調整し、反復するとしています。
加えて、Copilot Chat では、開発者が、複数のLLMを切り替えて使用できるようになると発表。
すべてのモデルが開発関連のあらゆるタスクで優れているわけではなく、一部のモデルは特定の言語で他のモデルよりもうまく機能するだけだとし、これまでは OpenAI の GPT-4 でしたが、今後は Anthropic の Claude 3.5 Sonnet、Google の Gemini 1.5 Pro、OpenAI の GPT-4o、o1-preview、o1-mini から選択できるようになるとのこと。
さらに、Copilot ( Swift と Objective-C をサポート)を Apple の Xcode 環境で利用可能にしています。
Microsoftは、Azure上で開発者が主要なワークスペースを離れることなく、GitHub Actionsを介した大規模なモデル評価と A/B テストなどが行え、クラウド リソースの管理、アプリケーションの展開、さらには問題のトラブルシューティングも可能で、5分で展開可能なAIアプリテンプレートを含む、GitHub Copilot for Azureを発表しています。
<参照URL>
https://githubnext.com/projects/github-spark
https://azure.microsoft.com/en-us/blog/azure-at-github-universe-new-tools-to-help-simplify-ai-app-development/
エンタープライズ ユーザーが専用の「データ エージェント」を設定して展開し、自社のデータ クラウド インスタンス内や外部にホストされているデータから関連するビジネス インサイトを抽出し、そのインサイトを使用して Google Workspace や Salesforce などのさまざまなツールやアプリケーションでアクションを実行できるようにするとのこと。
内部データベース、Microsoft SharePoint ドキュメント リポジトリ、Salesforce のCRM、Slack 、Google Workspace などのサードパーティ ツールに接続し、Snowflake のビジネス インテリジェンス データと統合、カスタムコーディングを必要とせずに非構造化データソースと構造化データソースの両方にアクセスできるとしています。
Snowflake Horizon Catalog とネイティブに統合されており、Apache Iceberg や Apache Polaris カタログなどのオープン テーブル形式と互換性もあるとしています。
その他にも、トランザクション データと分析データを 1 つのプラットフォームにまとめるUnistore、テキストの多いドキュメントから情報を抽出して要約し、ロゴ、手書きのテキスト、フォームの記入などを理解するDocument AI、ダークウェブやその他の既知の攻撃者のたまり場で盗まれた認証情報を監視するHorizon Catalogなど多数の新製品を発表しています。
<参照URL>
https://www.snowflake.com/build/americas/
DataRobot の調査によると、AI プロジェクトの 90% はプロトタイプから本番環境への移行に失敗、モデルをトレーニングするだけでは企業価値は生まれないとしています。
Enterprise AI Suiteにより、顧客は、エージェントワークフロー、データ分析ツール、コンテンツ作成システムなど、幅広い AI ユースケース向けに事前に構築されたアプリケーションテンプレートを使用して、AI アプリをより迅速に構築および展開するために必要なものをすべて見つけることができるとのこと。
AI モデルとソースを Streamlit、Flask、Slack に簡単に接続したり、Dash や Shiny などのフレームワークを使用したカスタム インターフェイスを使用したりすることができ、プロダクション前の品質保証のために、生成 AI アプリケーションに対するストレステストを実施、ビジネス要件を満たしていることを確認することもできるとしています。
また、最小限のコーディングでリアルタイムの介入とガバナンスによる保護をサポートするCompliance Documentを提供。
コンプライアンス チームは、EU AI 法 や NYC 法第 144 号など、国際、地域、業界の規制に準拠したAI コンプライアンス ドキュメントをワンクリックで自動作成できるとのこと。
OpenAI、Google Vertex、Microsoft Azure、Databricksのモデルに対して、アラートとガードを使用してリアルタイムで適切なガバナンスと安全管理を確保できるとしています。
<参照URL>
https://www.datarobot.com/newsroom/press/datarobot-introduces-generative-ai-applications/
Agentforceは、さまざまなツールをまとめて、自然言語で簡単にカスタマイズでき、ローコードまたはノーコードツールで展開でき、すぐに使えるAIエージェントを提供するように設計されたオールインワンソリューションで、データ、ビジネス ロジック、または事前構築された自動化に基づいてアクションを実行できるとのこと。
<参照URL>
https://www.salesforce.com/agentforce/
LLMとAIソフトウェアフレームワークの開発が急速に進む中、AI DCを構築するためのベストプラクティスと標準化されたアプローチはまだ初期段階にあり、企業における AI Factory の利用拡大と、イノベーションをサポートできるようBlue Printを公開するとのこと。
Dell Technologies、HPE、SuperMicro、Lenovo等のパートナーを通じて提供するとしています。
このBlue Printは、NVIDIA GPUサーバのほか、Spectrum-X AI Ethernet プラットフォーム、BlueField-3 DPUを使用したAI 最適化ネットワークのガイドライン、AI アプリケーションの構築と展開のためのNeMo や NIM などのマイクロサービスを含むAI Enterprise プラットフォーム、インフラストラクチャのプロビジョニング、ワークロード管理、リソース監視のためのツールを提供するBase Command Manager Essentials で構成されます。
柔軟でコスト効率の高い高速インフラストラクチャを構築するための合理的なアプローチを提供することで、AI インフラストラクチャの導入にかかる時間とコストを削減するとしています。
<参照URL>
https://blogs.nvidia.com/blog/enterprise-reference-architectures/
NVIDIA VILA などの VLM、Meta の Llama 3.1 405B などの LLM、GPU アクセラレーションによる質問応答とコンテキスト認識型RAG と AI モデル用の Nvidia NIM マイクロサービスを使用して構成、NeMo プラットフォームを使用して、他の VLM、LLM、グラフ データベースを組み合わせ、独自の環境やユース ケースに合わせて微調整できるとのこと。
Accenture は、AI Blueprints を Nvidia AI Foundry 上のAccenture AI Refinery に統合、顧客がエンタープライズ データでトレーニングされたカスタム AI モデルを開発できるようにするとしています。
<参照URL>
https://blogs.nvidia.com/blog/video-search-summarization-ai-agents/
API を使用して従来のアプリをコーディングしてデプロイする場合は、問題の有無や API への習熟度、ドキュメントの読み方などにもよりますが、1 時間以上かかる場合があるとし、SambaNova のクラウド プラットフォームを通して、開発者がボタンを 1 回クリックするだけでChatGPT のようなテキストチャットボットやマルチモーダル チャットボットを展開できるよう統合したとのこと。
<参照URL>
https://cloud.sambanova.ai/
AMD Versal は、Compute Express Link 3.1、PCIe Gen6、LPDDR5Xメモリをサポートする適応型 FPGA プラットフォームで、データ センター、通信産業、航空宇宙産業や防衛産業など幅広いワークロードのパフォーマンスを高速化するとのこと。
<参照URL>
https://www.amd.com/en/products/adaptive-socs-and-fpgas/versal/gen2/premium-series.html
生成AIアプリケーションの導入を数日から数分に短縮できるマルチクラウド運用モデルを提供、推論エンドポイントの展開、モデルのダウンロード、システムの導入を安全かつ制御された方法で自動化できるとのこと。
エッジ、コア データセンター、AWS EKS、Azure AKS、Google GKEなどのパブリック クラウド サービスなど、あらゆるKubernetesプラットフォームに導入でき、NVIDIA NIMとHuggingFaceを活用してファウンデーションモデルのパフォーマンスを最適するとしています。
Nutanix GPT-in-a-Box 2.0には、Nutanix Cloud Infrastructure、Nutanix Kubernetes Platform、Nutanix Unified Storageも含まれるとのこと。
<参照URL>
https://www.nutanix.com/press-releases/2024/nutanix-extends-ai-platform-to-public-cloud
最新UCS C885A M8の他、NVIDIA AI Enterpriseと組み合わせるAI Podは、最大 16 枚のNVIDIA GPUとネットワーク機器、その他のサポートコンポーネントを組み合わせた大規模なデータセンターアプライアンスで、オプションで、NetApp や Pure Storageのストレージ機器など、さらにハードウェアを追加できるとのこと。
RecogniのAIチップは、既存のGPUよりも少ない電力でニューラル ネットワークを実行でき、サイズが小さいため、より多くのチップをインストールして処理速度を向上させることができるとしています。
ルックアップ テーブルを段階的に廃止、顧客が量子化を考慮したトレーニングを使用する必要性も排除し、導入障壁も下げているとのこと。
AIプロセッサはマルチチップクラスタで導入されることが多く、Juniperはネットワーク機器を提供し、Recogniを支援するとしています。
<参照URL>
https://www.recogni.com/stories/juniper-networks-and-recogni-announce-venture-funding-and-collaboration-for-high-performance-energy-efficient-and-cost-effective-multimodal-generative-ai-inference-systems
https://www.reuters.com/technology/artificial-intelligence/juniper-networks-invests-ai-startup-recogni-102-million-funding-round-2024-11-12/
AI システムを効果的に監視するには、ネットワークが最適化されたリクエストと応答を処理する必要があるとし、F5 AI Gatewayは、膨大な数のユーザーと自動化された変数を監視、最適化、保護して、コスト削減、セキュリティ リスクの緩和、規制遵守を実現できるとしています。
アプリケーション、API、LLM、AIシステムのさまざまなコンポーネント間のやり取りを効率化するネットワークコンポーネントの相互接続を自動化し、パフォーマンスの向上、優れた可視性、セキュリティ脅威からの保護を強化するように設計されたコンテナ化されたサービㇲとのこと。
<参照URL>
https://www.f5.com/products/ai-gateway
Adaptive Shieldは、SaaSアプリケーションにおける設定ミス、ID・データ漏洩を可視化するソリューションを提供、生成AIを利用するSaaSアプリケーションの継続的な監視により、セキュリティの強制、AI制御によるデータ漏洩防止、シャドウAIアプリケーションの特定を可能にするとしています。
CrowdStrikeは、Falconプラットフォームにこれを統合し、Active Directory、クラウド環境(OktaやMicrosoft Entra ID)など包括的なID保護を提供するとのこと。
AI ワークロードは、ハイブリッド クラウド内の顧客データが存在する場所であればどこででも実行する必要があり、独自の運用ニーズとデータ ニーズに最適な環境、リソース、アーキテクチャを選択できるようにするため、柔軟でオープンなプラットフォームとツールが必須となるとして、LLMの推論を高速化し、、効率的なメモリ管理と高速な計算を実現するオープンソースライブラリvLLMをリードするNeural Magicを買収することで、1B から 405B のパラメータのオープン ソースモデルを、企業DC、複数のクラウド、エッジなど、必要な場所に展開実行できるとのこと。
自社のプライベートデータやユース ケースに合わせて簡単にカスタマイズできるようにする微調整機能や推論パフォーマンスエンジニアリングにより、運用とインフラ効率が向上するとしています。
また、企業がハイブリッドクラウド環境で AI を活用したアプリケーションを大規模に作成および提供できるようにするRed Hat OpenShift AIの最新版 2.15 を発表。
ユーザーは登録済みの AI モデルを一元的に表示および管理できるモデルレジストリ、モデルの推論に使用されるライブデータが元のトレーニングで使用された情報から大幅に逸脱した場合にユーザーに警告するデータドリフト検出モニター、LLM を微調整して、リソースの消費を制限し、大規模に実行する際の価格を抑えるLoRAやバイアス検出ツールを追加。
KServe の vLLM サービング ランタイムや、ハイパーパラメータ調整ツール Ray Tune などの拡張された AI トレーニングおよび実験オプションなど、開発者が期待できる新しいモデル サービング機能も提供します。
<参照URL>
https://www.redhat.com/en/about/press-releases/red-hat-acquire-neural-magic
https://github.com/vllm-project/vllm/blob/main/README.md
Kubernetes Explorer は、AI とエッジ コンピューティングが、分散アプリケーションとインフラの監視の複雑さが増している中、メトリック、トレース、ログなどの断片化されたデータを統合、アプリケーション、Kubernetesにわたる洞察を提供することで、DevOps チーム、SRE、ソフトウェア エンジニアがさまざまな Kubernetes コンポーネントを簡単に理解し、問題を迅速に検出し、根本原因を明らかにして、これまでよりも迅速に解決できるように設計されているとのこと。
Observe の AI Investigator とも統合されており、インシデント固有の視覚化と提案を作成、トラブルシューティング中にKubernetes の専門的な支援を受けることができるともしています。
Kubernetes Explorerにはそれ以外にも2つの機能があり、Kubernetes Hindsight は、一時的な環境での遡及的な分析と最適化のための履歴情報を提供、Cluster Optimization は、ワークロードの分散を視覚化して、十分に活用されていない容量を特定し、オーバープロビジョニング コストを削減するとしています。
<参照URL>
https://www.observeinc.com/blog/introducing-kubernetes-explorer/
3GPP Release 18 5G 仕様に基づき、2025年第1四半期までの間に、ソフトウェアサブスクリプションとしてアップデートを開始する予定とのこと。
ネットワークの進歩にもかかわらず、多くの国でARPUが低下傾向にあり、5Gの投資収益率に関する不満は日常的で、通信事業者は、運用コストの制約がますます厳しくなってきていると感じている昨今、5G Advancedの機能を利用するために新しい機器を購入する必要がない、というセールストークをしています。
これにより、米国で5G SAの展開をリードするT-Mobileは、他の通信事業者よりも早く、より広範囲にネットワーク全体でL4Sサポートを展開できるだろうとされていますが、5G-Advancedの早期導入は、すぐには収益をもたらさないだろうとの予測もあります。
Rapid descentと記事にされるほど、縮小しているRapidですが、世界中の何千人もの現役開発者が利用する世界最大の API ハブや、高度なスキルを持つ研究開発部門などの技術資産を取得し、通信事業者がより多くの開発者にネットワークを開放できるよう支援するNetwork as Codeプラットフォームに統合する予定とのこと。
<参照URL>
https://www.nokia.com/about-us/news/releases/2024/11/13/nokia-acquires-rapid-technology-and-rd-unit-to-strengthen-development-of-network-api-solutions-and-ecosystem/
https://www.calcalistech.com/ctechnews/article/qnsptbros
Kubernetes クラスターでアプリケーションを実行するための必要機能をパッケージ化、カスタマイズ可能なテンプレート、事前構成されたアップストリームオープンソース プロジェクトを統合するフレームワーク、アプリケーションを構築、展開、保護、保守するためのセルフサービス環境、業界のベスト プラクティスとオープンソースのクラウド ネイティブ ツールに基づくテンプレートのカタログを開発者に提供するとのこと。
クラスターの設定と保守を簡素化する、事前構成済み本番環境対応の Kubernetes 環境を組み込み、Kubernetes クラスターの管理の複雑さを軽減。
可観測性、セキュリティ、コンプライアンス、シークレット管理、継続的インテグレーションと開発、サービス メッシュ、クラウドネイティブ ストレージのためのオープンソース ツールが含まれているとしています。
セキュリティと監視機能には、アプリケーションのパフォーマンスに関する洞察を得るためのリアルタイムの脅威検出および監視ツールが含まれるとのこと。
ZTNAやデバイス認証など、OTなど製造業向けの複雑なセキュリティニーズに対応するセキュリティ機能(拡張SIM認証や動的分散ポリシーなど)と統合管理のスイートである Celona AerlocとVerizonやNTT データ、Capgemini、TechMahindraなどの主要パートナー向けにエキスパート認定を提供するなどの改良されたチャネルパートナープログラムである Frequency を発表しています。
<参照URL>
https://www.celona.io/resources/celona-aerloc-brings-private-5g-zero-trust-to-ot-networks-for-industrial-iot
https://www.celona.io/resources/celona-supercharges-global-channel-program-to-meet-surging-private-5g-demand