通信事業者は、5G 周波数帯と機器に数十億ドルを費やしたにもかかわらず、収益を増やすことができておらず、インフレの上昇が状況を悪化させ、1~3ドルの値上げを継続していますが、顧客は苦情も言わずに値上げをただ受け入れ、解約しなかったということで、非常に計画的でデータ主導で慎重に進めるが、値上げを今後も継続することを示唆しています。
AT&T CEOは、余地がまだあるとし、より多くの価値を提供するために、受け取っている価値に対してお金を払っているということに満足してもらうとし、Verizon CEOは、価格を引き上げると同時に、顧客により多くの価値を提供できる機会や利益が得られる可能性があるとし、T-Mobile CEOは、コスト構造と収益構造を最適化する機会もあちこちにあり、顧客に十分に受け入れられると思われる場合は、それらの機会を利用する、としています。
<参照URL>
https://www.lightreading.com/5g/expect-5g-operators-to-keep-increasing-prices-in-2024
アジアのテレコムキャリアを中心に、生成AIの取り組みが加速しており、
China Telecomは 30 億人民元の支援を受けて、AI 子会社であるChina Telecom AI 有限公司を4 億 2,400 万米ドルで設立、AI ソフトウェア開発、ハードウェア販売、ソリューション提供を計画し、NTT グループは、法人顧客向けに生成 AI サービスを来年 3 月に開始する予定で、 2027 年までに 1,000 億円以上の売上を目指し、KT Corp は、企業が独自のデータセットを使用して AI サービスを作成できるようにするLLM をデビュー、現地でのパートナーシップを築き、タイの IT 企業と提携してタイ語 LLM を構築し、東南アジアへのテクノロジーの販売を開始し、SK Telecom は、独自の韓国語ベースのチャットボットを開発し、シリコンバレーの新興企業 Anthropic に 1 億ドルを投資、Claude を通信サービスとシナリオに適応させることに取り組んでいます。
これら生成AIxテレコムの今後について、テレコムキャリアは、会議の概要まとめなどで 生成AI を実験しているか、コール エージェントの提案作成を支援するためにコールセンターからテスト、最大の直接的な影響は従業員数の削減である可能性が最も高いとされます。
生成AI は通信事業者の事実上あらゆる部分、特に顧客サービスや販売などの分野の機能の一部を吸収するだろうとのこと。AI がコールセンターの生産性を 14% 向上させた別の業界を例に挙げていますが、これを通信業界でも再現できれば、小規模通信会社はごく少数のスタッフによって運営される超スリム化が進むとしています。
一方で、ネットワーク計画など通信会社特有の機能もAIの影響を受けるが、その影響は限定的で、「ネットワークの構築や維持などには、依然として多くの人員が必要です。」ともしています。
AT&T のOpenRAN 計画は、2026 年末までにワイヤレス ネットワーク トラフィックの 70%をOpenRAN機器を通して処理するとしており、Ericsson、富士通、Intel、Corning、Dell、Intelなどから機器を納入するとしています。
富士通はORAN準拠のRUを提供、2018 年にEricssonと富士通は、無線アクセスとコアに及ぶポートフォリオの統合と、戦略的提携を発表しています。
*一方で、AT&Tは今年、設備投資に約240億ドルを費やしていますが、来年は210億~220億ドルに規模を縮小する予定
EricssonのOpenRAN機器への移行について、O-RAN が資本集約ドを 10 桁%台にまでする秘伝のソースであると言うつもりはなく、ユニットあたりのコストを下げるが、全体的な支出に劇的な影響を与えることはないともしています。
OepnRANについて、Verizonはまだ未成熟としていますが、これまで否定的だったT-Mobileは、一般的に、RAN業界の非垂直化は時間の問題であり、スタックの上下にあるさまざまなコンポーネントを賢く購入できるようにしたいと考え、OpenRANに期待しているとしています。
なお、AT&TのRANで3分の1を占める(NokiaのFY23売上高の 5%~8%)Nokiaは、調達から外されたことで、株価が12%強も下がり、釈明に追われています。
<参照URL>
https://www.nokia.com/about-us/news/releases/2023/12/05/nokia-comments-on-att-vendor-plans/
https://www.ericsson.com/en/press-releases/2023/12/att-to-accelerate-open-and-interoperable-radio-access-networks-ran-in-the-united-states-through-new-collaboration-with-ericsson
https://www.wsj.com/business/telecom/at-t-signs-14-billion-supply-deal-with-ericsson-e0d870dd?mod=business_lead_story
https://the-mobile-network.com/2023/12/heres-the-money-now-open-up-a-bit/
T-Mobile は、通信カバレッジ確保にローバンド スペクトルを使用し、容量と高速化のためにミッドバンド スペクトルを使用していますが、スタジアム5GやFWAサービスなど混雑したエリアに 5G ミリ波を使用することも検討。
EricssonとQualcommと協力し、今年夏の2.5 GHz、1.9 GHz、600 MHz スペクトラムを組み合わせた3Gbpsを超え、ミリ波 8 チャネルを集約し、4.3 Gbps を超えるダウンロード速度を達成、 アップリンク上でミリ波 4 チャネルを集約し、420Mbpsを超える速度に達したとのこと。
顧客による月間最大80ギガバイトの使用量をサポートするともしています。(一方でFWA顧客は月間約450ギガバイトのデータを使用)
<参照URL>
https://www.t-mobile.com/news/press/t-mobile-revs-up-millimeter-wave-with-5g-standalone
RAN Domain Specific Language (RDSL) は、OpenRAN セットアップにおける複数のベンダーのハードウェアへの新しいソフトウェアの導入と実行のプロセスを自動化することを目的としています。
RDSL コードはTelecom Infra Project (TIP) で検討されており、単一サイトの基地局に適用されますが、オペレーターが制御するインターフェースを介して、地方と都市部の両方のクラスター全体で使用することもできるととのこと。
VMO2 ネットワーク上に専用 5G スライスを構築してAR eスポーツゲーム Hadoをトライアル。
英国バーミンガムのコミコンで開催されたゲームで、参加者は、米国と韓国のチームとリモートかつリアルタイムで対戦することができたとのこと。
AI の「信頼と検証」メトリクス、AI トレーニングとオープンソースの AI モデルとフレームワークをサポートするハードウェアとインフラストラクチャなどの分野の進歩に特化したワーキング グループ、運営委員会、技術監視委員会を形成。
プロジェクトの標準とガイドラインを確立し、その後、「AI分野で価値のある連携した取り組みを行っている」政府、非営利団体、社会組織からの
「重要な既存の取り組み」と提携する予定とのこと。
閉鎖的で独自のビジョンを持つ少数の企業に AI イノベーションと価値創造を委ねないとしており、コラボレーションと情報共有により、コミュニティはより迅速かつ包括的なイノベーションを実現し、製品を世に出す前に特定のリスクを特定してそれらのリスクを軽減できるようになるともしています。
スタンフォード大学やMIT、Anthropic、Cohere、Adept、NVIDIAなどが参加していないですが、AMD や Intel、Oracle、ServiceNow、Stability AI、HuggingFace、NASA、CERN、東大、UC Berkeley、イェール大学やインペリアルカレッジ ロンドンなどの大学など、約 45 の組織が参加しています。
<参照URL>
https://thealliance.ai/
https://newsroom.ibm.com/AI-Alliance-Launches-as-an-International-Community-of-Leading-Technology-Developers,-Researchers,-and-Adopters-Collaborating-Together-to-Advance-Open,-Safe,-Responsible-AI
まず軽量版のProが利用可能となり、本格版でテキスト、コード、オーディオ、画像、ビデオなど様々な種類の情報を理解して生成できるマルチモーダルのUltraは来年中にリリース、それ以外にPixelなどのモバイルデバイスで利用可能なNanoがあります。
*Nanoは、デバイス上で実行されるため、機密データが携帯電話から流出するのを防ぎ、ネットワーク接続がない場合でも機能を使用できるとしています。
Gemini Pro は、Google のフルマネージド機械学習プラットフォームであるVertex AIやAI Studioを使用する企業顧客向けに 12 月 13 日に発売され、
その後 Google のSearch、Chrome、Ads、Duet AIへ拡大するとのこと。(すでにAIチャットボットBardやコード生成AIのAlphaCode2で微調整版が利用されている)
Gemini Nano は、AICore アプリを通じて、Pixel 8 Pro の Android 14 専用プレビュー版として近日公開されるとしています。
なお、2023年のオスカー受賞者を間違って答える、多言語翻訳が苦手、物議を醸す可能性のあるニュース トピックについて、ChatGPT は、ニュース記事の引用を含む箇条書きの概要を返すが、Geminiはコメントの代わりにユーザーに自分で検索するように指示などと現状期待値に届いていない評価もある模様です。
また、これに合わせて新AIアクセラレータ v5 TPU 搭載ワークロードCloud TPU v5pも発表。
v5p ポッドは合計 8,960 個のチップで構成され、チップ間の帯域幅は最大 4.8Tbps 、v4 TPU と比較して FLOPS が 2 倍、高帯域幅メモリが 3 倍向上、 LLM トレーニング ワークロードの速度が 2 倍高速化しているとしています。
<参照URL>
https://deepmind.google/technologies/gemini/
https://japan.googleblog.com/2023/12/gemini.html
Hands-on with Gemini: Interacting with multimodal AI
最新のLLM Gemini Pro をベースとし、ドキュメントを NotebookLM にアップロードすると、アプリは自動的に概要を生成し、ドキュメントの内容に関するフォローアップの質問を提案するとのこと。
<参照URL>
https://blog.google/technology/ai/notebooklm-new-features-availability/
ユーザーは、Mata AIを使用して、グループチャットで仲間同士がプロンプトを入力することで AI 画像を作成可能に。
Imagine with Meta AI 生成AIモデルEmuを利用した高解像度の AI 画像を数秒で生成する無料のWebツール。
透明性と追跡可能性の向上を目的として、生成されたコンテンツに今後数週間以内に電子透かしを追加。
ユーザーの検索クエリに一致する視覚的な例を確認する場合などに有用で、たとえば、グループチャットで友人との旅行を計画している場合、Meta AIに訪問するのに最適な場所を推奨してもらい、それらのトップサイトやアトラクションのリールを共有することができる。
なお、Meta AI には、グループ チャットで「@MetaAI」と入力した上で、問い合わせたい内容を入力することによってアクセスすることも、Ray-Ban Meta スマート グラスを着用して「Hey Meta」と言うことでアクセスすることもできます。
また、Paris Hilton, Mr. Beast, Kendall Jenner, Tom Brady, Charli D’Amelio, Snoop DogなどのセレブをもとにしたAIキャラクターと米国で、WhatsApp、Messenger、Instagram上でチャットできるようになることを発表。
Bing を活用した検索をサポートし、以前に話した内容も覚えているようになったとのこと。
<参照URL>
https://ai.meta.com/genai/
AI システムを構築している人々は、単独では AI の課題に対処することはできないため、競争の場を平等にし、オープンな信頼と安全のための中心を作りたいとし、AI 開発コミュニティが安全かつ責任ある方法でオープンな生成 AI モデルを構築するために必要なすべてのツールと評価を利用可能にする予定とのこと。
サイバーセキュリティと LLM プロンプト安全性が生成 AI の安全性において最も重要な領域の 2 つとし、開発者が LLM セキュリティ リスクを定量化するための指標を提供し、安全でないコードの提案の頻度などの問題に対処できるように、CyberSec Eval と呼ばれる、LLM 用の無料でオープンなサイバーセキュリティ評価ベンチマーク セットをリリース。
また、危険なプロンプトと生成 AI モデルからの出力の両方を検出し、それらの処理を阻止するLlama Guard もリリースします。
開発者は生成 AI モデルをカスタマイズして、関連するユースケースをサポートできると同時に、論争、動揺、不快感を引き起こすリスクを最小限に抑えることができるとしています。
<参照URL>
https://ai.meta.com/llama/purple-llama/
Deep Searchは、BingのWeb インデックスとランキング システムに基づいて構築、GPT-4で強化することで、BingのWeb検索機能を拡張し、複雑な検索クエリに対して、より関連性の高い包括的な回答をユーザーに提供するとしています。
これにより、キーワードが明示的に含まれていない場合でも、入力された検索クエリのさまざまな側面をカバーする結果を見つけることができるとのこと。
一方で、Deep Searchはオプションであり、完了までに最大 30 秒かかる場合があるため、あらゆるクエリやユーザーを広く対象としたものではないともしています。
<参照URL>
https://blogs.bing.com/search-quality-insights/december-2023/Introducing-Deep-Search
X(以前はTwitterの収益)の大部分をサブスクリプションが牽引しておらず、広告が牽引してきましたが、月間アクティブ ユーザー数が 5 億人を超え、11 月のサブスクリプション収入が過去最大の月間となり、アプリ ストア手数料を除いた純収入が 620 万ドルに到達。(Snapchatの2000万ドルには現状及ばない規模)
AIチャットボットGrokはXのPremium+ ユーザー向けにベータ提供が開始され、(Premium+ に加入している)すべての英語ユーザー は「約 1 週間ほど」で Grok にアクセスできるようになるだろうとしています(2024年初め」までにGrokを「できれば」すべての言語に対応させるとしています)。
<参照URL>
https://www.sec.gov/Archives/edgar/data/2002695/000200269523000002/xslFormDX01/primary_doc.xml
汎用AIシステムの構築を目指すAIモデル Liquid Neural Networkを開発、OSSCやAUTOMATTIC、Samsungなどの他、GitHub 共同創設者 Tom Preston Werner、Shopify 共同創設者 Tobias Lütke、Red Hat の共同創設者 Bob Youngなどのエンジェル投資家から3,750 万ドルを調達。
Liquid Neural Networkは、最新AIモデルアーキテクチャと同様に、時間の経過に伴う個々のニューロンの動作を予測する方程式によって制御するモデルですが、従来の AI モデルよりもはるかにコンパクトで、実行に必要な計算能力もはるかに少ないとしています。
OpenAIのGPT-4が、約 1,750 億個のパラメーターと約 50,000 個のニューロンに対して、Liquid Neural Networkは、約20,000 個のパラメーターと 20 個未満のニューロンで構成されるとのこと。
パラメータとニューロンが少ないほど、モデルのトレーニングと実行に必要なコンピューティングが少なくて済み、ニューロンの動きの予測も監視しやすく、理論的には Raspberry Pi 上で実行できるとされています。
また、時間の経過によるパラメータの適応能力も持ち、例えば、自動運転の状況での気象条件の変化など、環境や状況の変化を予測するように訓練されていない場合でも、それらの変化に対処できるとしています。
商用化はまだこれからですが、顧客にオンプレミスおよびプライベート AI インフラストラクチャと、顧客が思いつくあらゆるユースケースに合わせて独自のモデルを構築できるプラットフォームを提供する予定とのこと。
先行ターゲットは、自動運転、ドローンによる捜索と救助、野生生物の監視などとしています。
<参照URL>
https://www.liquid.ai/
https://arxiv.org/abs/2006.04439
テキスト生成、要約、コンテンツのパーソナライゼーションなどのチャット ユースケース向けの 30 億パラメータのLLMとのこと。
Direct Preference Optimization (DPO)により、70 億の StableLM モデルよりも小さいため、リソース フットプリントが少なく、迅速な応答を提供しながら、より幅広いハードウェアに展開可能で、Q&A および指示に従うタイプのタスク向けに最適化されているとしています。
Meta の LLaMA v2 7b の 2 倍のトークン数を使用して、サイズが 40% であるにもかかわらず、基本パフォーマンスで一致するとのこと。
<参照URL>
https://stability.ai/news/stablelm-zephyr-3b-stability-llm
全文検索と同様に、トランザクション処理、時系列分析、地理空間クエリなどの機能とともに、Vector Search が Atlas で利用できるようになり、
レコメンデーション、関連性スコアリング、特徴抽出、画像検索、Q&A システム、チャットボットなどのビジネス ユースケースに対応するとのこと。
<参照URL>
https://www.mongodb.com/products/platform/atlas-vector-search
RAGは、モデルをより最新のものにし、特定のトピック、特に社内のビジネス ニーズに対応するため、特定のデータ ソースを利用してモデルの精度と信頼性をさらに高め、応答の全体的な品質を向上するとされます。
今回のツールは、さまざまなソースからの関連するリアルタイム ビジネス データの提供から、そのデータを対象アプリケーションの適切なモデルと組み合わせ、そのアプリケーションを監視することに至るまで、RAG アプリ開発におけるLLMのすべての主要な課題に対処するとのこと。
ベクターサーチ機能により、すべての構造化データと非構造化データは自動的に取得され、LLM アプリと同期されるため、LLM アプリは最新の関連ビジネス情報に確実にアクセスでき、正確でコンテキストを認識した応答を提供できるとしています。
また、Unity Catalog は、データセットのオフライン コピーとオンライン コピーを自動的に追跡するため、データ品質の問題のデバッグがはるかに簡単になり、 オンライン データセットとオフライン データセットの間でアクセス制御設定を一貫して適用するため、企業は機密の機密情報を誰が閲覧しているかをより適切に監査および制御できるとしています。
加えて、 AI playground と MLFlow Evaluationにより、開発者はAzure OpenAI を始めなどのさまざまなモデルにアクセスできるようになり、AWS Bedrock、Anthropic、および Llama 2 や MPT などのオープンソースモデルが、レイテンシ、トークン数などの主要な指標でどのように機能するかを確認、最もパフォーマンスが高く、最も手頃な価格のモデルでプロジェクトをデプロイできるようになるとともに、より良いものが登場したときにいつでも変更できるオプションを維持できるとしています。
最後に、Lakehouse モニタリングでは、アプリケーションの応答を自動的にスキャンして、毒性、幻覚、その他の危険なコンテンツがないかチェックできるとのこと。
<参照URL>
https://www.databricks.com/blog/building-high-quality-rag-applications-databricks
https://docs.databricks.com/ja/generative-ai/retrieval-augmented-generation.html
NVIDIA GPUの対抗製品、Instinct MI300A APUは、3D パッケージングと第 4 世代 AMD Infinity 、AMD CDNA 3 アーキテクチャと Zen 4CPUを組み合わせて、AI およびHPCワークロードにより高いパフォーマンスを提供。Oracle CloudやAzureでも利用可能に。
OpenAIのGPT-4やGoogleのGeminiなどの高度なLLMをサポートする最適化と様々な機能を提供するオープンソフトウェアスタック。
Metaは、自社のデータ センターに数千台の MI300X アクセラレータを追加、ROCm 6 ソフトウェア で AI 推論ワークロードを強化。
これにより、 Llama 2 モデルに基づくテキスト生成タスクの全体的なレイテンシーのパフォーマンスが、前世代と比較して 8 倍向上できたとのこと。
On CPU AI機能を持ち、ユーザーデバイス上で、LLMを実行できる AI アプリを構築するための Ryzen AI ソフトウェアを搭載、64% 高速なビデオ編集と 37% 高速な 3D レンダリングをサポート。
2024年には、AMD XDNA 2と生成AI用のNPUを搭載した、開発コード名Strix Pointという次世代Ryzenプロセッサを発表予定。
<参照URL>
https://www.amd.com/en/corporate/events/advancing-ai.html
127 量子ビットのEagle デバイスと比較してエラー削減が最大 5 倍向上したとのこと。
あわせて、1,121量子ビットプロセッサーであるCondorや、3 つの Heron を搭載した同社初のモジュール式量子コンピューターであるQuantum System Twoも発表しています。
<参照URL>
https://research.ibm.com/blog/quantum-roadmap-2033
昨年の AI への関心の爆発的な高まりと、これらのワークロードをサポートできる最新のストレージインフラの需要の高まりから、汎用ハードウェアを活用して、AI ワークロードのための大規模なデータ セットへのより高速なアクセスを提供するVast Dataのビジネスが拡大しているとしています。
PixarやZoomなどの顧客を持ち、HPEと協業するVast Dataは、DCとクラウドで稼働する AIワークロード向けに、ストレージ、データベース、コンピューティングエンジンを統合して提供。
顧客は Vast Dataを使用して、ビデオや画像からテキスト、データ ストリーム、エッジ デバイス データに至るまで、好みのプライベートクラウド、パブリッククラウド、ハイブリッドクラウドで横断的に非構造化データと構造化データを管理できるとしています。
<参照URL>
https://vastdata.com/press-releases/vast-series-e-funding-triples-valuation
企業および IT 幹部の 92% が、組織が競争力を維持するには今後 12 か月以内に AI ファーストのオペレーティング モデルに移行する必要があると主張。
AIモデルをより効率的に実行可能になるよう、非構造化データを保持するために最適化された NASシステムPowerScaleとそのOSであるOneFSのアップデートによりハードウェア障害の影響を軽減し、ランサムウェアを検出し、管理者のメンテナンス タスクを自動化するとのこと。
PowerScaleは、Nvidia DGX SuperPOD で検証された最初のイーサネット ストレージ ソリューションとなる予定としています。
コンテナ化されたサービスは、診断データを生成する数十以上のモジュールで構成される場合があり、そのデータの量と複雑さのため、管理者はパフォーマンスの問題のトラブルシューティングを行う際にダッシュボードで情報を視覚化します。
アプリケーションのパフォーマンスを追跡するためのダッシュボードの作成は通常、時間のかかるプロセスで、アプリケーションの診断データのどのサブセットを収集する必要があるかを決定し、残りをフィルタリングし、必要に応じて継続的な調整を行う必要があるため、数時間の作業が必要になる場合があるとのこと。
Logz.io の主力可観測性プラットフォームである Open 360 は、AIを使用して、企業がインフラで誤動作しているコンポーネントのトラブルシューティングを支援。
その一部である、App360は、オープンソースの OpenTelemetryをベースとする監視プログラムまたはエージェントを使用してアプリケーションテレメトリを収集、ダッシュボードセットアップに大規模な手動構成を必要としない、事前にパッケージ化されたダッシュボードを提供。
各メトリクス、トレース、ログを生成したアプリケーションコンポーネントに自動的に関連付け、ワークロードが 1 分あたりに処理するユーザー リクエストの数、リクエストが完了するまでの待ち時間、処理の失敗の頻度などのパフォーマンス メトリクスを追跡できるとのこと。
<参照URL>
https://logz.io/news-posts/logzio-launches-app-360/
ランサムウェア攻撃が安定したペースで継続しており、今年の Cisco Talos インシデント対応業務の 20% を占めたとし、昨年、特に国家支援による攻撃者による、ネットワーク デバイスに対する高度な攻撃の増加を観察しており、マシン単位の防御の導入が必要となっているとしています。
AI Assistant for Security は、ファイアウォール ルールの管理と維持という課題に対処するために、Cisco Cloud Firewall Management Center および Cisco Defense Orchestrator と連携、Web、電子メール、エンドポイント、ネットワーク、アプリケーションなど毎日 5,500 億件を超えるセキュリティ イベントを分析、ポリシーの検出、重複ルールの削除、ルールの推奨事項の取得、トラブルシューティングの迅速化が可能になるとのこと。
*アシスタントは現在ファイアウォール ポリシーのみを参照、特定のアプリケーションまたはリソースへのアクセスを調停する他の要素であるRBACやIAMは含まれていません。
また、AI を活用した暗号化可視化エンジンをすべてのファイアウォールに導入、7.4.1 オペレーティングシステムで、暗号化されたトラフィック内のマルウェアを検出できるとしています。
AI Assistant for Firewall Policy は、ファイアウォール ポリシーとルールの管理とメンテナンスを合理化するように設計され、管理者は自然言語を使用してシステムと対話し、ポリシーを検出し、ルールの推奨事項を取得できるようになるとのこと。