Global IT Topics Report # 30

2024.12.24

川島 宏司 川島 宏司

目次

トレンド

Cloudflare 2024 レポート

2024年までのインターネットトラフィックは17.4%増加し、Googleが全体で最も人気のあるインターネットサービスとしての地位を維持

OpenAIは最も使用されている生成AIプロバイダー、Binanceはトップの暗号通貨サービス、WhatsAppはメッセージングでトップ、Facebookはトップのソーシャルメディアサイトであるとのこと。

2024年までに、インターネット障害は前年の180件から220件以上に増加。

政府によるシャットダウンが障害の主な原因だったが、ケーブルの切断、軍事行動、悪天候の影響など、新たなパターンも現れたとのこと。

業界別に見ると、ギャンブルとゲームが2024年に最も攻撃を受ける業界となり、2023年に最も標的となった業界である金融をわずかに上回る結果であったとしています。

悪意のあるメールも増加し、現在ではメール トラフィック全体の 4.2% を占めており、3 月、4 月、5 月に急増が見られましたとのこと。

最も一般的な攻撃ベクトルは、偽のリンクと ID のなりすましでした。

Cloudflare Email Security によって処理された、.bar、.rest、.uno トップレベル ドメインからのメール メッセージのほぼすべてが、スパムまたは悪意のあるものであったとのこと。

8月に新しいNIST標準が発表され、Apple iMessage、Signal、Google Chromeなどのプラットフォームで広く採用されたことで、量子暗号は2024年までに大きく進歩するだろうとし、TLS 1.3トラフィックの12.87%がPQCを使用していると報告、2023年の1.7%から増加しているとしています。

インターネットが拡大し多様化し続ける中、そのインフラのセキュリティ確保は
世界的な安定とイノベーションにとって最優先事項であると締めくくっています。

<参照URL>
https://blog.cloudflare.com/radar-2024-year-in-review/

2024年のNetwork APIと今後の予測

2024年の見通しにAPIはあまり影響がなく、Q3にNokiaやEricsson、一部の通信事業者が参入し、状況に変化が出始めているとのこと。

アナリストは、2025 年は引き続きエコシステムの構築に重点が置かれ、セキュリティと不正防止APIが2025年に登場すると予想しています。

個々の通信事業者の発表だけでなく、国内の主要通信事業者すべてが集まり、同じネットワークAPIとアプリケーションを共同でサポートすると宣言することが重要としています。

2024年時点では、ネットワークAPIに対する認識と評価は、ほとんどなく、いくつかの先駆的なオペレータによって開始されたキャンペーンが進行中で、T-MobileのDevEdgeなどが、ネットワーク上にネットワークAPIマーケットプレイスまたは開発ハブを作成しています。

なお、米国の大手通信事業者が提供する API は次のとおりです。

米国におけるこのような散発的な API の導入は、アプリケーションでそれらの API を使用することに関心のある開発者にとって障害となる可能性があります。

AT&T: SIMスワップ、デバイスステータス
T-Mobile: オンデマンド品質、QoS セッションの管理、デバイス ステータス、ローミング ステータス、接続ステータス
Verizon: シンプルなエッジ検出(提携するAWSを意識)

<参照URL>
http://fierce-network.com/wireless/5g-apis-2025-analysts-agree-fraud-protection-works
https://open-gateway.gsma.com/

2024年のモバイル市場

収益は2023年から17%、2022年から30%減少しました。5Gサイクルの楽しい部分は終わったとされます。

<参照URL>
https://fierce-network.com/wireless/op-ed-closing-book-mobile-2024

GCP Trend Report

AIエージェント、マルチモーダルAI、エンタープライズ検索が2025年に主流に

このトレンドは、NotebookLM を使用して以前の調査研究のデータを分析し、 Google トレンドで最も急成長している AI トピックを抽出し、サードパーティの調査と洞察を組み込むことんでトレンドを発表しています。

AI エージェントは自律的(または半自律的)に動作し、複数のステップから成るプロセスを実行でき、Capgemini によると、大企業のうち AI エージェントをすでに使用しているのは約 10% に過ぎませんが、82% が今後 3 年以内に AI エージェントを導入する予定とされています。

また、マルチモーダル AI 市場は2025 年に 24 億ドルに達すると推定され、2037 年末までに 989 億ドルに達すると予想されています。

2024 年が実験の年であったとすれば、2025 年は企業がAI を拡大する年となるとのこと。

マルチモーダル AI はこれまで以上に複雑なタスクをサポートし、AIエージェントは企業に組み込まれ、社内検索エンジンは重要なビジネス洞察を明らかにするとしています。

<参照URL>
https://blog.google/products/google-cloud/ai-trends-business-2025/
https://www.capgemini.com/wp-content/uploads/2024/07/Generative-AI-in-Organizations-Refresh-2.pdf
https://www.researchnester.com/reports/multimodal-ai-market/6472


USキャリア

AT&T

メタル回線を2029年末までにほとんどの地域で廃止すると発表

AT&T が全国で固定電話サービスを廃止する意向は、日常生活の重要なライフラインとして固定電話に依存している多くのアメリカ人に対する無謀な無視を示すものだとの批判もありますが、連邦法では、十分な通知を行い、「規制対象サービス」を中止しない限り、通信事業者が銅線ネットワークを廃止することを認めているため、AT&T の光ファイバーまたはワイヤレス ネットワーク上で動作し、POTS の代替品として機能するAT&T Phone-Advanced を開発(市内通話と長距離通話、通話転送、発信者 ID、通話保留、E911 位置検出のサポートを含む)。

また、大規模なエンタープライズ顧客のアップグレードを支援する「レガシー エミュレーション」機能も開発しています。AT&Tは、銅線ネットワークの維持管理に費やしている費用は年間約60億ドルとのこと。

<参照URL>
https://www.att.com/support/article/local-long-distance/KM1096816/

Verizon

Private MECでNVIDIAと提携を発表

Verizon と NVIDIAは、Private MEC を使用して、さまざまな AI アプリケーションをVerizon の 5G ネットワーク上で実行できるようにする新しいソリューションを開発するためPoCを実施するとのこと。

Verizon のPrivate 5G のノウハウと NVIDIA の Nvidia AI EnterpriseとNvidia Inference Microservices を組み合わせるとしています。

この発表に対するメディアのコメントは辛らつです。

5G の初期の頃は、AIがP5GやMECなどの関連の機会をどのように生み出すかについて、大いに宣伝されていました。

しかし、こうした機会は、多くの人が期待したほどにはまだ実現しておらず、P5Gは勢いを増しているが、5G 全体から見ればまだ比較的小さな部分を占めているにすぎません。

そして、エッジ コンピューティングはさらに大きな失望であり、通信業界におけるエッジ コンピューティングの取り組みのほとんどは、まだ計画段階または試験段階にあります。

苦戦しているサービスの需要をAIが急増させることができるかどうかについては懐疑的な見方も多いです。

<参照URL>
https://www.verizon.com/about/news/verizon-nvidia-power-ai-workloads-5g-private-networks-mec


ワールドワイドキャリア

Softbank

孫正義社長、ドナルド・トランプ次期大統領とともに、同社が今後4年間で米国に1000億ドルを投資すると発表

<参照URL>
https://apnews.com/hub/donald-trump


Tech Giants

Amazon

SanFranciscoに新しいAIエージェント研究開発ラボAmazon AGI SF Labを設立すると発表

AIスタートアップAdeptの共同創業者デビッド・ルアン氏が率いるAGI SF Labは、コンピューター、ウェブブラウザ、コードインタープリターを使用してデジタル世界と物理世界でアクションを起こし、複雑なワークフローを処理できるAIエージェントの構築を目指すとのこと。

研究の第1歩として、AIエージェントが現実世界の行動を実行し、人間のフィードバックから学習することで、
AIエージェントが自己修正し、人間の目標を推測できるようにするとしています。

<参照URL>
https://www.amazon.science/blog/amazon-opens-new-ai-lab-in-san-francisco-focused-on-long-term-research-bets

Google

生成AIモデル Gemini 2.0 Flashを発表

Gemini 1.5 Proモデルの 2 倍の速度を誇る2.0 Flash は、テキストに加えて画像や音声をネイティブに生成でき、写真やビデオ、音声録音を取り込んで、それらに関する質問に答えられ。

サードパーティのアプリやサービスも使用できるため、Google 検索を利用したり、コードを実行したりといったことも可能になるとのこと。

Gemini API やGoogle AI StudioとVertex AIを通じて利用可能になるものの、オーディオおよび画像生成機能は、1月のロールアウト前時点では、早期アクセス パートナーのみを対象に開始されるとしています。

今後数か月以内に、 Android Studio、 Chrome DevTools、Firebase、Gemini Code Assistなどの製品にさまざまなバージョンの Flash 2.0 を導入するともしています。

また、生成されるすべての音声と画像にSynthID技術を使用して透かしを入れるとのこと。

新機能のMultimodal Live APIにより、開発者はカメラや画面からの音声や動画の入力、リアルタイムのマルチモーダルアプリを作成できるともしています。

そのほか、プライベート プレビューで Gemini Code Assist ツールもリリースする予定とのこと。

GitLab、GitHub、Google Docs、Sentry.io、Atlassian、Snyk などのデータ ソースに接続、開発者やその他のコーダーは、IDE で直接 Code Assist の支援を受けられるとしています。

<参照URL>
https://blog.google/technology/google-deepmind/google-gemini-ai-update-december-2024/
https://deepmind.google/technologies/gemini/flash/

AIエージェントとエンタープライズ検索を組み合わせたAgentspaceを発表

Agentspace は、従業員の生産性を 1 回のプロンプトで大幅に向上させるとのこと。

計画、調査、コンテンツ生成、アクションを必要とする複雑なタスクを支援するとのこと。

Agentspace は、複数の質問に答え、従業員のニーズに基づいてプロアクティブな提案を行うことができ、ユーザー に代わってアクションを実行することもできるとしています。

たとえば、従業員は Agentspace を使ってプロンプトからプレスリリースを作成でき、AI エージェントが会社の過去のリリースを詳細に調査してテンプレートを取得し、それをフォーマットして、従業員が アクセスできる Confluence、Google Drive、Microsoft Sharepoint などのエンタープライズ ソースから情報を取得。

プレスリリースが作成されると、ユーザーはそれを確認して、Agentspace にマーケティング チームに電子メールで送信するよう依頼、Agentspace は企業の連絡先にアクセスし、電子メール フォームを直接表示し、アドレスを入力し、ドキュメントを添付して、ユーザーが送信をクリックできるようにすることができるとのこと。

<参照URL>
https://cloud.google.com/blog/products/ai-machine-learning/bringing-ai-agents-to-enterprises-with-google-agentspace

AIエージェント Project Marinerを発表

Geminiを搭載したこのエージェントはChromeブラウザを制御し、画面上でカーソルを動かし、ボタンをクリックし、フォームに入力し、人間と同じようにウェブサイトを使用したりナビゲートしたりすることができるとのこと。

裏では、Google のエージェントがブラウザ ウィンドウのスクリーンショットを撮り (ユーザーは利用規約でこれに同意する必要があります)、クラウド上の Gemini に送信して処理、Gemini は Web ページをナビゲートするための指示をコンピューターに送り返すとしています。

これにより、ユーザーがウェブサイトと直接やり取りするのではなく、代わりにそれを実行する生成 AI システムとやり取りするようになる、とし、まずは事前に選ばれた少数のテスターにリリースする予定としています。
そのほかのAIエージェントで、Deep Researchは、多段階の調査計画を作成することで、ユーザーが複雑なトピックを調査するのを支援、Gemini Advancedで展開され、2025年にはGeminiアプリに搭載される予定としています。

また、Jules は、コーディング タスクで開発者を支援、GitHub ワークフローに直接統合され、従来のコーディングアシスタントとは異なり、GitHub内で自律エージェントとして動作することで、コードベースを分析し、包括的な修復プランを作成し、複数のファイルにわたって同時に修正を実行するとのこと。

開発者が寝ている間にソフトウェアのバグを自動的に修正し、コードの変更を準備できるAIコーディングアシスタントとしています。

Julesは、ベータテスターの特定のグループに展開され、2025 年後半に利用可能になる予定としています。

<参照URL>
https://deepmind.google/technologies/project-mariner/

ビデオ生成AI Veo2を発表

OpenAI のSoraの解像度の 4 倍、持続時間の 6 倍以上となる、最大 4K (4096 x 2160 ピクセル) の解像度で 2 分以上のクリップを作成できるとのこと。

現時点では、理論上の性能であり、Veo2を使用する実験的なビデオ作成ツールである VideoFX では、720p で 8 秒の長さに制限されています。(Sora は最大 1080p、20 秒の長さのクリップを作成可能。)

今後数か月間、ユーザーからのフィードバックに基づいて改善を続け、モデルが大規模に使用できるようになるとVertex AI開発者プラットフォームを通じて提供するとしています。

Veo 2 はテキストプロンプトまたはテキストと参照画像を指定してビデオを生成できるとのこと。

物理特性とカメラ制御の「理解」が向上し、「テクスチャや画像がより鮮明な」映像を生成できるとしています。

また、カメラ コントロールの改善により、Veo 2 は生成したビデオ内で仮想「カメラ」をより正確に配置できるようになり、 そのカメラを動かしてさまざまな角度から物体や人物を撮影できるようになったともしています。

そのほか、画像生成モデル Imagen 3 を使用して、被写体用、シーン用、スタイル用の 3 つの画像を組み合わせるWhiskもテストしています。

たとえば、被写体として自分の写真を選択し、シーンとして未来的な風景を選択し、最終的な外観としてアニメスタイルを選択できるとのこと。

画像の詳細なキャプションを自動的に生成し、それを使用して Imagen 3 が写真のリミックスを作成、「被写体は空飛ぶ自転車に乗っています」などの詳細な説明を含め、テキストプロンプトを入力して、望ましい結果をさらに定義することもできるとしています。

<参照URL>
https://deepmind.google/technologies/veo/veo-2/
https://blog.google/technology/google-labs/httpsbloggoogletechnologygoogle-labswhisk/

新しい推論モデルGemini 2.0 Flash Thinking Experimentalを発表

思考を使って推論を強化するように訓練された新しいモデルは、 Google AI Studioで利用でき、プログラミング、数学、物理学などの分野で「最も複雑な問題を推論する」機能を備え、「マルチモーダル理解、推論、コーディングに最適」であるとのこと。

OpenAIのo1などと同じく、既存の AI とは異なり、効果的に自ら事実確認を行うため、AI モデルが陥りがちな落とし穴のいくつかを回避できますが、推論モデルでは解決策に到達するまでに通常数秒から数分長くかかります。

<参照URL>
https://ai.google.dev/gemini-api/docs/thinking-mode

XR向けAndroidベースのOS、Android XRを発表。

開発者プレビューをリリース、ARCore、Android Studio、Jetpack Compose、Unity、OpenXRなどの既存のツールをすでにサポート。

プロトタイプARグラスProject Astra(現状一般向け発売の予定はない)も対応しているとのこと。

Android XRを搭載した製品として、SamsungのProject Moohanヘッドセットが来年発売される予定としています。

ヘッドセットは、没入型体験と現実世界の環境の上にコンテンツを拡張する体験を簡単に切り替えることができ、ユーザーは Gemini でデバイスを制御し、見ているアプリやコンテンツについて質問することもできるとのこと。

また、Play ストアのほとんどのモバイル アプリとタブレット アプリは自動的に互換性を持つようになるともしています。( YouTube、Google TV、Chrome、マップ、Google フォトを再設計)

Qualcomm XR2 Gen2を採用しているLynx、Sony、XRealなどの企業がAndroid XRを搭載したデバイスを発売できるようになるとのこと。

<参照URL>
https://blog.google/products/android/android-xr/
https://www.android.com/xr/
https://www.businessinsider.com/google-augmented-reality-reset-xr-glasses-android-qualcomm-2024-7

第6世代TPU、TrilliumをGCPインスタンスとしてGA

このカスタム AI アクセラレータは、先代と比較してトレーニング性能は4倍以上、推論スループットは最大3倍、エネルギー効率は67%、チップ当たりのピークコンピューティング性能は4.7倍、広帯域メモリ(HBM)容量は2倍、チ ップ間相互接続(ICI)帯域幅は2倍に向上したとしています。

AIモデルのトレーニングや推論に最適化され、高速インターチップインターコネクトを介して接続した多数のTrilliumホストにワークロードを分散することで、モデルを高速でトレーニングできるとし、Gemini 2.0のトレーニングと推論にも使われたとのこと。

<参照URL>
https://cloud.google.com/blog/ja/products/compute/introducing-trillium-6th-gen-tpus

再生可能エネルギー開発業者のIntersect Powerおよび投資ファンドTPG Rise Climateと契約

数ギガワット規模のデータセンターを稼働させるのに十分な炭素フリー電力を調達すると発表。

Intersect Powerへの8億ドルの株式投資も含まれており、TPGが主導し、CAI、Google、Greenbelt Capital Partnersが参加、再生可能エネルギーへの投資総額は約200億ドルで、Intersectはすでに最初のプロジェクトに資金を提供しているとのこと。

1ギガワット規模のデータセンターに、同量の風力・太陽光・バッテリーを組み合わせ、2~4時間分の電力供給が可能になるとされます。

Googleは、再エネの導入を段階的に進め、第 1 フェーズは 2026 年までに運用を開始し、2027 年までに完全に完了するとしています。

なお、ハイパースケーラーの電力需要の急増(一部の予測では、2027年までに新しいAIデータセンターのほぼ半数が電力不足になる可能性)を受け、Exxonは、データセンター用の発電所を建設する計画を発表しています。

今後5年以内に送電網インフラに依存しない、信頼性が高く完全に独立した電力を提供する天然ガス発電所で、
1.5ギガワット以上の電力を発電するとのこと。

なお、Microsoftも同様の発表を行っており、Acadia Infrastructure Capitalと共同で気候・コミュニティ投資連合の立ち上げを発表、テキサス州の210メガワットの太陽光発電所に投資するなどしています。

<参照URL>
https://blog.google/inside-google/infrastructure/new-approach-to-data-center-and-clean-energy-growth/
https://www.bloomberg.com/news/articles/2024-12-10/google-invests-in-venture-to-build-energy-parks-for-data-centers?srnd=phx-industries-energy&embedded-checkout=true
https://d1io3yog0oux5.cloudfront.net/_85cf201fad96530f99211c985eb36f1c/exxonmobil/db/2261/22346/file/Corporate+Plan+Update+-+FINAL.pdf

量子コンピューティング向けチップ Willow を発表

量子コンピュータの計算単位である量子ビットは、周囲の環境の影響を受けるため、情報を失う傾向があります。

これにより、計算を完了することが非常に困難になり、一般に、使用される量子ビットの数が多いほど、エラーが発生する可能性が高くなります。

Googleは、この大規模なエラー訂正における重要な課題を解決し、量子ビットの数を増やすたびにエラー率を半分に削減できるようになったとのこと。

複数の物理量子ビットをグループ化することで、ソフトウェアは論理量子ビットを作成、論理量子ビットがエラーに対する保護として機能し、 エラー訂正を支援することでより信頼性の高い量子計算を確保できるとしています。

Willowは、量子コンピューティングチップの製造専用施設でかいはつされ、105量子ビットを搭載しており、Googleが2019年にリリースされた53量子ビットのSycamoreのほぼ2倍の容量となっているとのこと。

<参照URL>
https://blog.google/technology/research/google-willow-quantum-chip/
https://www.nature.com/articles/s41586-024-08449-y

ハーバード大学とパブリックドメイン書籍100万冊をAIトレーニングデータセットとして公開

AIトレーニングデータは高額であるため、ハーバード大学は、Google の長年にわたる書籍スキャン プロジェクトであるGoogle Booksから派生し、著作権保護が切れたディケンズ、ダンテ、シェークスピアなど、ジャンル、言語、作家を網羅する約100万冊のパブリックドメイン書籍を含むデータセットを公開する予定とのこと。

<参照URL>
https://www.wired.com/story/harvard-ai-training-dataset-openai-microsoft/

Alphabet傘下のドローン配送スタートアップWing、Doordashとの提携を拡大。

ダラス・フォートワースの顧客にドローン配達を提供するとし、同地域の顧客はフリスコのストーンブライアーセンターとフォートワースのヒューレンモールにある50の店舗から食べ物を注文できるようになるとのこと。

ドローンは時速65マイルの速度で、巡航高度約150フィートで顧客の住居まで飛行し、最短15分で商品や食事を玄関先まで配達できるとしています。

<参照URL>
https://blog.wing.com/2024/12/drone-delivery-set-to-launch-at.html

Microsoft

小型AIモデルPhi-4を発表

数学的問題を得意とする140億パラメータのPhi-4は、計算リソースを大幅に削減しながら、Gemini Pro 1.5などの大規模モデルよりも優れた性能を発揮し、コンピューティング予算が限られている中規模企業や組織でも高度な AI 機能を利用できるようになるとのこと。

Phi-4は、研究ライセンス契約に基づいてAzure AI Foundryプラットフォームを通じて提供され、今後Hugging Faceでより広範囲にリリースする予定とされ、包括的な安全機能と監視ツールが含まれるとしています。

Azure AI Foundryを通じて、開発者はモデルの品質と安全性を評価する評価ツールや、悪用を防ぐコンテンツ フィルタリング機能にアクセスでき、AI の安全性に関して、企業での展開に実用的なツールを提供するとのこと。

Phi-4 の導入は、さらなる大規模なモデルを構築することではなく、より少ないリソースでより多くのことを実現するより効率的なシステムを設計する方向を示唆しています。

<参照URL>
https://techcommunity.microsoft.com/blog/aiplatformblog/introducing-phi-4-microsoft%E2%80%99s-newest-small-language-model-specializing-in-comple/4357090

買収したMetaswitch の資産について、AT&Tに提供しているパケットコアのNexusを除き、Alianzaに売却

Alianza は、Microsoft が Metaswitch の資産をサービス プロバイダーに利益をもたらす形で十分に活用していないと「確信」し、しばらく前に一方的に提案したとのこと。

MicrosoftはプラットフォームとAIの強みに注力し、通信事業者がネットワークを近代化して収益化し、優れた顧客サービスを提供し、安全なAIプラットフォームを通じてイノベーションを加速できるように支援するとしています。

<参照URL>
https://www.alianza.com/press-releases/alianza-to-acquire-metaswitch-from-microsoft/

Meta

AIが生成したビデオに透かしを入れるツールを発表

生成AIのコモディティ化により、オンラインでの偽コンテンツの爆発的な増加。

ID検証プラットフォームのSumsubによると、2023年から2024年にかけて、ディープフェイクは世界中で4倍に増加し、 2024年には、なりすましやアカウント乗っ取りから高度なソーシャルエンジニアリングキャンペーンまで、ディープフェイクがすべての詐欺の7%を占めるとのこと。

Meta の他の透かしツールである Watermark Anythingおよび Audio Sealに加わる、Meta Video Seal は、オープン ソースで提供され、既存のソフトウェアに統合でき、透かしの他に、動画に隠しメッセージを追加、ぼかしや切り取りなどのな編集、ビデオ圧縮アルゴリズムに対して耐性があり、動画の出所を特定できるとのこと。

<参照URL>
https://aidemos.meta.com/videoseal

Ray-Ban Meta スマートグラスの機能をアップデート

米国・カナダの早期アクセスプログラムに参加しているRay-Ban Meta所有者は、Live AI機能を追加するファームウェアv11をダウンロードでき、Meta AIと継続的に会話でき、「Hey Meta」というウェイクワードを言わなくても、Meta AIを中断してフォローアップの質問をしたり、話題を変えたりすることができるとのこと。

また、Real Time AI Video機能により、たとえば周囲に何があるのかなど、リアルタイムで見ているものについて質問できるともしています。

どのような提案なのか?同社は明らかにしなかった。

加えて、ライブ翻訳も導入され、英語とスペイン語、フランス語、イタリア語の間でリアルタイムに会話を翻訳できるようになり、これらの言語のいずれかを話す人と話しているとき、メガネのオープンイヤー スピーカーから話者の英語の発言が聞こえ、 ペアリングされた携帯電話にトランスクリプトが表示されるとのこと。

<参照URL>
https://www.meta.com/blog/quest/ray-ban-meta-v11-software-update-live-ai-translation-shazam/

Apple

Broadcomと共同でAIサーバーチップを開発中との報道

Siriやマップなどの特定のタスクはクラウドで処理され、大量のコンピューティングを必要とし、今後数年間で、さらに多くの生成AI機能を展開する予定とし、AI処理でデバイスをネットワークに接続するためにコード名「Baltra」と呼ばれる新しいサーバーチップでのネットワーク技術に注力しているとされ、12か月以内にチップの設計を完了することを目指しているとのこと。

<参照URL>
https://www.theinformation.com/articles/apple-is-working-on-ai-chip-with-broadcom


企業

GM

商業用ロボットタクシー事業開発への資金提供をやめ、自動運転車子会社Cruiseを吸収

2016年3月に自動運転の新興企業Cruiseを推定10億ドルで買収し、数十億ドルを注ぎ込んできましたが、Cruiseのロボットタクシーが歩行者を撥ね、約20フィート引きずった事故を契機に、方針転換せざるを得なくなりました。

<参照URL>
https://ai.meta.com/research/publications/video-seal-open-and-efficient-video-watermarking/

Joby Aviation

2025年の電動eVTOL飛行機の商用稼働に向け、株式3億ドルを売却へ

今回の資金調達による収益を既存のキャッシュと合わせて、型式認証手続き、製造、2025年の商用化に向けた準備、および一般的な運転資金に充てるとのこと。

Jobyは、来年、Delta航空やUberと提携してニューヨーク、ロサンゼルス、ドバイとアブダビで都市交通用の空飛ぶタクシーを運行する予定としています。

<参照URL>
https://techcrunch.com/2024/10/22/evtol-startups-just-got-a-big-lift-from-the-us-government/
https://www.sec.gov/Archives/edgar/data/1819848/000181984824000499/a424b5-20241210.htm

United/Air Canada

Apple Find My Share Item Locationをカスタマー サービス システムに統合

AirTag またはその他の Find My アクセサリを携行して旅行する人は、Apple の Find My アプリを使用して紛失したアイテムの位置を航空会社のカスタマー サービス システムと共有し、紛失または遅延した荷物の所在確認を迅速化できるとのこと。

この機能は、iPhone 用の Apple iOS 18.2 オペレーティング システム、iPad 用の iPadOS 18.2、Mac 上の macOS 15.2 で利用可能で、顧客は「探す」アプリ内からアイテムの場所を共有リンクを生成でき、顧客はそのリンクを、紛失したバッグの所在を探すカスタマー サービス担当者と共有できるとのこと。

<参照URL>
https://www.united.com/en/us/newsroom/announcements/cision-125359


ベンダ

IBM

光コンポーネントを電子チップを1つのパッケージに統合、DC内のデバイス間を高速接続できるようにする、CoPackage Opticsを発表

GPUは、コストが高く入手が限られているにもかかわらず、チップが命令の受信待ちに多くの時間を費やしているとし、その大きな要因は、DC内の接続が高速光ファイバーではなく、依然として銅線に大きく依存していることだとしています。

今回のテストでは、ポリマー光導波路をベースに、PWG 技術を使用して、チップの端に高密度の光ファイバーの束を並べ、 ポリマー ファイバーを介して直接通信するチップ間相互接続を構築、電気接続に比べてエネルギー要件を 80% 以上削減すると同時に、DC内のコンポーネントを接続できるケーブルを現在の 1 メートルから数百メートルに延長できるようになるとのこと。

LLMを最大5倍速くトレーニングできるようになり、トレーニングしたモデル1つあたり、米国の家庭5,000軒の年間電力消費量に相当すると推定される電力を節約できるとしてます。

CoPackage化された光学モジュールは商用提供の準備が整っており、ケベック州ブロモントの IBM 施設で製造される予定とのこと。

<参照URL>
https://jp.newsroom.ibm.com/2024-12-10-ibm-brings-the-speed-of-light-to-the-generative-ai-era-with-optics-breakthrough
https://research.ibm.com/blog/co-packaged-optics-to-supercharge-generative-ai-computing

Ayar Labs

光電融合スタートアップ、 1 億 5,500 万ドルの資金調達ラウンドを完了

NVIDIA、AMD、Intelなどが参加。

調達総額は 3 億 7,000 万ドルとなり、評価額は 10 億ドルを超えています。

Ayar Labsは、SuperNova リモート ライト テクノロジーを採用するTeraPHYはSOCと統合してチップ間通信の高速化を可能にする業界初のインパッケージ I/O チップレット光相互接続モジュールで、従来の電気回路の相互接続よりも消費電力が少なく、コストを削減しながら、AIインフラの計算効率とパフォーマンスを最大化するのに役立つとしています。

AIインフラのサーバ内高速化における光I/O化はトレンドとなっており、Lightmatterなど複数のスタートアップが注目されています。

<参照URL>
https://ayarlabs.com/news/ayar-labs-155m-series-d-to-address-ai-infrastructure-includes-amd-intel-capital-nvidia/

OpenAI

一部のユーザーに動画生成AI Soraがリリース、その後、ChatGPT Plus および ChatGPT Pro ユーザーに提供開始。

Sora は専用のWebサイトSora.com上で公開されており、そのホームページには最近作成された OpenAI がキュレーションした Sora のビデオが表示されるとのことで、ChatGPTとは独立して提供されています。

Sora は単発のク動画リップを生成する機能に加え、ユーザーがプロンプトをつなぎ合わせて一連のビデオを作成できる「ストーリーボード」機能や、Soraの作成した動画に変更を加える「リミックス」機能があります。

ChatGPT Plus の加入者は、最大解像度 720p、長さ 5 秒までのビデオを 1 か月あたり 50 本生成でき、ChatGPT Pro の加入者は、1 か月あたり 500 本のビデオを生成できるとのこと。

クリップの長さは最大 20 秒、解像度は最大 1080p です。

解像度が高くなるほど、ビデオの生成にかかる時間は長くなり、1080p の映像は最速のオプションである 480p よりも 8 倍長くかかり、720p よりも 4 倍の時間がかかるとのこと。

また、Sora には数多くの安全策が組み込まれており、18 歳未満の人物が映っている映像や、暴力や露骨なテーマを含む映像、 第三者の著作権を侵害する可能性のある映像の作成を禁止。

著名人や有名なキャラクター、ロゴの画像から動画を作成することはなく、各動画に透かしを入れる、簡単に切り取ることができる視覚的な透かしを入れるとのこと。

なお、OpenAIは、現在12/23まで、「12 Days of OpenAI」というイベントを開催し、新機能などを随時発表しています。

<参照URL>
https://sora.com/
https://openai.com/index/sora-is-here/
https://x.com/OpenAI/status/1864328928267259941

新しいモデルo3を発表

o3 モデルファミリは、o3 と、特定のタスク向けに微調整された小型モデルである o3-mini からなります。

o3 は少なくとも特定の条件下ではAGIに近づくという主張をしています。

研究者は今日から o3-mini のプレビューにサインアップでき、1 月末に o3-mini を公開し、その後 o3 を公開する予定とのこと。

o3 は、OpenAI が「プライベートな思考の連鎖」と表現する手法により、回答する前に「考える」よう強化学習によって訓練され、タスクを推論して事前に計画を立て、長期間にわたって一連のアクションを実行して解決策を見つけ出すことができるとしています。

また、推論時間を「調整」でき、低、中、高の計算 (つまり、思考時間) を設定することで、計算が高ければ高いほど、タスクのパフォーマンスが向上するとのこと。

<参照URL>
https://x.com/OpenAI/status/1870164871289155937
https://openai.com/index/early-access-for-safety-testing/

Cohere

幅広い企業ユースケースをサポートする、R モデル最小・最速の Command R7B をリリース

Command R7B は、高速プロトタイピングと反復をサポート、RAGを使用して精度を向上させているとのこと。

このモデルは、速度、コストパフォーマンス、コンピューティングリソースを最適化する必要がある開発者や企業向けに設計され、コンテキスト長が 128K で、23 言語をサポートし、数学やコーディングなどのタスクにおいて、
同クラスのオープンウェイト モデル (Gemma 2 9B、Ministral 8B、Llama 3.1 8B など) よりも優れているとしています。

Command R7B は小型なので、ローエンドおよびコンシューマー向け CPU、GPU、MacBook に導入でき、デバイス上での推論が可能になるとのこと。

現在、Cohere プラットフォームと HuggingFace で利用可能で、価格は、入力トークン 100 万個あたり 0.0375 ドル、出力トークン 100 万個あたり 0.15 ドルとなっています。

<参照URL>
https://cohere.com/blog/command-r7b

Liquid AI

DSGにて取り扱い検討中の生成AIスタートアップLiquid AIが、AMD主導のSeries Aラウンドで2億5000万ドルを調達

Liquid AIは、電子商取引、家電、バイオテクノロジーなどのアプリケーション向けにカスタマイズされたファウンデーションモデルLFMと、そのコアとなるニューラルネットワークLiquid Neural Networkの開発しています。

投資の一環として、Liquid AI はAMDと協力して、AMD の GPU、CPU、AI アクセラレータ向けにモデルを最適化するとしています。

<参照URL>
https://www.liquid.ai/blog/we-raised-250m-to-scale-capable-and-efficient-general-purpose-ai

Salesforce

Agentforce 2.0を発表

Agentforce は、企業に生成AIエージェントを構築・カスタマイズする機能を提供、営業、サービス、マーケティング、商取引の従業員は、ビジネス ロジックと事前構築されたスキルテンプレートによる自動化を使用して、 AI Workerをカスタマイズし、自分に代わってアクションを実行させることができます。

Agentforce 2.0では、エージェントは複数のスキル テンプレートを組み合わせることが可能となり、たとえば、サービス エージェントはサービス コールとマーケティング機能を処理できるため、サービス コール後に顧客のマーケティング プロファイルを生成でき、マーケティング担当者向けのマーケティング分析を作成できるようになるとしています。

また、Slack をエージェントのワークフローにさらに緊密に統合したとし、Slack スキルを使用すると、エージェントは会話に参加したり、主題に関する過去の話題の情報を調べたり、Slack アクションを使用する他の従業員と同様に、ユーザーが働いている場所で直接ユーザーとやり取りしたりできるとのこと加えて、AI PlaygroundとTest Centerを用意し、すべてのエージェントを展開前に試用して分析できるようにしたともしています。

テストでは、Agentforce 2.0 は DIY AI ソリューションと比較して回答精度が 33% 向上し、応答の関連性が 2 倍になったとのこと。

help.salesforce.com では、 AI エージェントが顧客サポートの問い合わせの 83% を独自に処理しており、2 週間前の導入以来、人間によるエスカレーションは 50% 減少しているとしています。

<参照URL>
https://www.salesforce.com/news/press-releases/2024/12/17/agentforce-2-0-announcement/
https://www.salesforce.com/jp/news/press-releases/2024/12/19/agentforce-2-0-announcement/

Github

Copilot Freeを発表

これまで少なくとも月額 10 ドルが必要でしたが、いくつかの制限(メッセージ数・コード件数・利用可能なモデル)があるものの、今後、Microsoft VS Code にもデフォルトで同梱されるとのこと。

Githubの開発者数は、2023年初頭の1億人から現在1億5000万人に増加したともしています。

<参照URL>
https://github.com/features/copilot

Databriks

100 億ドルを調達し、評価額は 620 億ドル (430 億ドルから増加) に。

出資者に、Thrive Capital、Andreessen Horowitz、DST Global、GIC、Iconiq Growth など。

このSeries Jラウンドは史上最大のベンチャーラウンドの一つとなっていますが、CEOアリ・ゴドシ氏はIPOは少なくとも2025年まで待つとしています。

DatabriksのCEOは、今はAIバブルのピークであり、製品もイノベーションも知的財産もない、新卒者だけで5人の会社が数億ドル、 時には数十億ドルの価値がないことは天才でなくてもわかるとし、何も持っていないスタートアップ企業に数十億ドルの評価額がつくのはバブルとしています。

<参照URL>
https://www.cnbc.com/2024/12/17/databricks-valued-at-62-billion-from-10-billion-financing.html
https://www.databricks.com/company/newsroom/press-releases/databricks-raising-10b-series-j-investment-62b-valuation

ServiceNow

オープンソースモデルFast-LLMを発表

Fast-LLMは、インフラストラクチャを拡張することではなく、既存のトレーニング リソースの効率を最適化することで、トレーニングを 20% 高速化し、企業の時間とコストを節約するとしています。

Fast-LLM の競争上の優位性は、AI トレーニング実行時に計算が行われる順序を定義する、計算順序付けへのアプローチで 幅優先パイプライン並列処理と呼ぶ新しい手法を使用しているとのこと。

加えて、トレーニングが進むにつれ、時間の経過とともに断片化するメモリの非効率性についてメモリ断片化の問題をほぼ完全に排除するために細心の注意を払ったともしています。

Fast-LLMは社内で開発されており、ServiceNow が自社の LLM トレーニングの取り組みを加速するのに貢献、ServiceNowが今年初めにリリースした StarCoder 2 LLM のトレーニングに使用されているとしています。

既存のモデルの1 兆トークン規模の継続的な事前トレーニングや、ジョブの微調整にも Fast-LLM を使用しているとのこと。オープンソース技術であるため、Fast-LLM は誰でも AI トレーニングの高速化に使用でき、微調整操作もサポート、最小限の構成変更で、既存の AI トレーニング パイプラインに簡単に置き換えることができるとしています。

<参照URL>
https://github.com/ServiceNow/Fast-LLM
https://www.servicenow.com/blogs/2024/how-train-llm-fast

NVIDIA

Jetson Orin Nano Superを発表

Nvidia Jetson Orinは、自律型ロボットなどのエッジ システム向けに、コンパクトでエネルギー効率の高いAI スーパーコンピューターとされ、Nvidia Ampere GPU、ディープラーニングおよびビジョン AI アクセラレータ、高速メモリ、マルチモーダルセンサーサポートを搭載しています。

Jetson Orin Nano Superは、モデル展開における生成AI推論パフォーマンスが前世代のOrin Nanoに比べて1.7倍向上し、パフォーマンスが70%向上し、メモリ帯域幅が50%増加したとのこと。

RAGによるLLMチャットボットの作成、Vision AIエージェントの構築、AIベースのロボットの展開に最適としています。開発キットの価格は 499 ドルから 249 ドルに値下げされ、より多くの開発者、学生、エンジニアの手に渡り、市場でより入手しやすくなるとのこと。

<参照URL>
https://www.nvidia.com/en-us/autonomous-machines/embedded-systems/jetson-orin/nano-super-developer-kit/

川島 宏司 川島 宏司

2007年中途入社、十数年に渡り通信キャリア様コア・データセンターネットワークの仕様策定/設計/構築に従事。 3年間の米国駐在を経て、通信キャリア様向け中長期戦略を主務とする傍ら、社内外に海外トレンド発信・新製品紹介も行う「いろいろやってる職」の人。