クローズドGPT-4o (OpenAI) とオープンソース Llama 3 (Meta)をセットアップ費用と処理費用で比較。
セットアップ費用には、開発費や運用費など、 LLM を稼働させるために必要なすべての費用、処理費用は、ツールが稼働した後の各会話の実際の費用。
製品をできるだけ早く展開する必要がある場合は、 GPT-4o のようにセットアップがほとんどまたはまったく不要なモデルが有利であるものの、微調整期間はある。Llama 3 のセットアップには数週間かかる場合がある。
GPT-4o は初期費用の点では安価だが、時間の経過とともに Llama 3 の方が飛躍的にコスト効率が高くなるとのこと。
多数のクライアントを管理している場合や、LLM をより細かく制御したい場合は、初期段階で多額のセットアップ コストを負担して、将来的に大きなメリットを得ることをお勧めするとしています。
1,000 語 = 7,515 文字 = 1,870 トークン
AI と人間の間で平均的な会話は合計 16 件のメッセージ、
29,920 トークンの入力と 470 トークンの出力に相当し、合計 30,390 トークン
GPT-4o
1,000 入力トークンあたりの価格は 0.005 ドル、1,000 出力トークンあたりの価格は 0.015 ドルであり、
前提条件のコストは約 0.16 ドル。
Llama 3-70B (On AWS Bedrock)
1,000 入力トークンあたりの料金は 0.00265 ドル、1,000 出力トークンあたりの料金は 0.00350 ドルであり、
前提条件のコストは約 0.08 ドル。
*ただしAWS Bedrockのサーバレスインフラコストは別途加算(AWS ml.g5.12xlarge インスタンス使用よりは価格低減)
<参照URL>
http://venturebeat.com/ai/what-does-it-cost-to-build-a-conversational-ai
統計的には、大規模な組織では安全でないAPIとボット攻撃の両方が関連するセキュリティインシデントの割合が高くなる傾向があるとのこと。
企業はデジタル サービスを俊敏かつ効率的に提供しなければならないというプレッシャーに直面しており、収益が 10 億ドルを超える企業は、公開された API や安全でない API を含む複雑で広範囲にわたる API によりボットによる自動 API の悪用を経験する可能性が中小企業に比べて 2 ~ 3 倍高く、企業が利用する API の数が膨大(平均的な企業が運用環境で管理していた API エンドポイントの数は 613)であることによってさらに悪化しているとのこと。
API エンドポイントが非常に多いため、当然ながら、ボット操作の格好の標的となっているとされます。
ボットによる自動化された API の悪用により、組織は年間最大 179 億ドルの損失となり、本番環境の API の数が増えるにつれて、サイバー犯罪者は自動化されたボットを使用して API を見つけて悪用し、セキュリティ対策を回避し、機密データを盗み出すケースが増えると指摘しています。
脅威は相互に関連しているため、企業はボット攻撃と API 攻撃の両方に対する包括的なセキュリティ戦略を統合した総合的なアプローチを取る必要があるとのこと。
AI-RAN は数十億のデータ ポイントを活用して、最適なネットワーク調整を決定し、リアルタイムの容量を予測するアルゴリズムを作成、通信事業者はネットワークエッジでサードパーティの AI アプリケーションを実行できるようになるとされます。
T-Mobileは、NVIDIA、Ericsson、Nokia と協力し、RAN に AI を組み込み、CPU と GPU を搭載した同じプラットフォーム上で、通信ワークロードと AI ワークロードを並行して実行できるか、現実に機能させる方法を模索しているとのこと。
まずは交換局に GPU を設置し、時間をかけて徐々に基地局にも導入していく可能性があり、将来的には、従来の通信ワークロードをサポートできるだけでなく、ネットワークエッジで顧客の AI ワークロードをサポートするのに十分な容量も確保できる多目的ネットワークになるともしています。
また、O-RAN は従来の RAN と同じパフォーマンスを達成するのに苦労しており、GPU を搭載した AI RAN を導入することで、O-RAN を強化し、はるかに優れたパフォーマンスを実現できるのではないかともしています。
別のトピックでは、5G FWAホームブロードバンドの待機顧客が100万人を超え、(560万人超の利用者がいる全米5位のISPともしています)5Gモバイルネットワークに十分な余剰容量がないためサービスを提供できていないとし、Lumos とMetronetという 2 つのオープンアクセス ファイバー プロバイダーを買収しようとしています。
<参照URL>
T-Mobile Capital Markets Day 2024
T-Priority はニューヨーク市と共同で開発され、ニューヨーク市が最初の対象地域とのこと。
Motorola Solutions、Ericsson、3rd Eye Technologiesなどのパートナーと協力、低遅延、高速、全レーンにわたる優先性、LTEではなく5Gによる、緊急対応要員向けの世界初の5Gネットワークスライスであり、動的に提供できるとしています。
<参照URL>
https://www.t-mobile.com/news/business/t-priority-network-slice-for-first-responders
2022年カスタマーサービスセンターには毎週300万件の電話がかかってきたが、その1件1件は、電話の主の問題を予防できなかったT-モバイル側の完全な失敗だとし、AIを活用して「何が問題で、なぜ問題が起きたのかを突き止め、実際に顧客離れにつながる問題を予防する」ため、IntentCXによって、顧客が離脱した理由をより深く理解し、既存顧客とのエンゲージメントを自動化するとのこと。
OpenAIの提携して開発中のIntentCX=「意図主導型AI意思決定プラットフォーム」は、T-Mobileデータ(専門家チームTEXのビジネスプロセス、 請求やサブスクなどを管理するT-Life アプリ)へ安全なアクセスを行い、顧客の意図と感情をリアルタイムで理解するとしています。
2025年に開始予定のIntentCXは、問題を解決するためのオプションを提供し、顧客に代わって積極的に行動することができるとのこと。
OpenAIは、API経由の 顧客データでモデルをトレーニングしていないとし、そのデータを使用してカスタムモデルを作成でき、コンテキスト学習を行うことができるが、そのデータは、ベースとなるOpen AI のモデルの改善に使用されることはない、としています。
<参照URL>
https://www.t-mobile.com/news/business/t-mobile-launches-intentcx-with-openai
Verzionでは生成AIだけでなくこれまでの従来型のAIも利用しているとのこと。
密集した都市部での 5G ノードの配置を最適化にコンピュータービジョンを活用、3D GIS マップを分析する AI を使用することで、最小限の展開でカバレッジを最大化できる最適な場所を決定し、よりコスト効率が高く最適化されたネットワーク構築を実現しているとしています。
運用では、予測 AI を使用して 180 を超えるネットワーク機能を分析し、ネットワーク品質に影響を与える最も重要な 26 の要素に絞り込み、各顧客の「エクスペリエンス品質」スコアを計算し、ネットワーク上の潜在的な問題に積極的に対処顧客エクスペリエンスを向上。
生成AIに関しては、Network Geneieと呼称するAIを構築し、技術者が質問をするとAI が生成した回答をすぐに得ることができ、ネットワークメンテナンスのプロセスがより迅速かつ効率的になるとしています。
現時点では、人間参加型のアプローチで、人間の監視下で運用されているが、多くの機能はすでに自動化または半自動化されているとし、究極の目標は、人間の継続的な介入なしに自ら実行、修復、最適化できる自律ネットワークとのこと。
<参照URL>
http://fierce-network.com/cloud/verizon-hasnt-forgotten-about-old-ai
11月14日に20億ドルの債務が満期を迎えるものの第4四半期の事業や今後の債務満期に必要な現金を手元に持っていないとし、ライセンスの一部について免除と期限の延長を求め、代わりに、特定エリアでの展開の加速などを提案しています。
DishのOpenRAN ネットワークは、2024 年末までに米国人口の 80% 以上をカバーし、2023 年の 70% のコミットメントよりも 3,000 万多いとし、2025 年 6 月 14 日までに 24,000基のタワーを展開、3GPP Rel 17 に準拠するとしています。
また、消費者には、全米で月額25ドル以下で少なくとも30ギガバイトのデータを提供する手頃な5Gプランと
125ドル以下の認定デバイスを提供するとのこと。
<参照URL>
https://www.fcc.gov/ecfs/document/1091867842711/1
先に締結された10 年間の戦略的パートナーシップの一環として、Copilotを社内に導入、従業員が単調な作業に費やしていた時間を解放し、より多様で興味深い仕事に集中できるようにしますとのこと。
顧客サービスだけでなく、製品開発やネットワーク管理など、さまざまな分野でも役立つと期待しているとしています。
<参照URL>
https://ukstories.microsoft.com/features/vodafone-to-roll-out-microsoft-365-copilot-to-68000-employees-to-boost-productivity-innovation-quality/
https://ukstories.microsoft.com/features/how-vodafone-plans-to-create-ai-powered-tech-comms-powerhouse-with-microsoft/
5 億ドル以上の損害をもたらす、重要なインフラのダウンなど、重大な被害を引き起こすために自社の製品が使用された場合に大手 AI ベンダーに責任を負わせることで被害から保護することを目指す SB 1047 について、法案がもたらす可能性のある非常に大きな影響と、特にオープンソースコミュニティに対する萎縮効果、すべてを解決することはできない中、何が解決できるのか?実証可能なリスクと仮定上のリスクの両方を考慮しなければならなず、今署名することは難しい状況にあるとしています。
現時点では、法案に署名するか拒否するかについては明言せず、まだ決断していないともしています。
OpenAI、ナンシー・ペロシ、米国商工会議所、大手テック業界団体は、SB 1047 を拒否するよう圧力をかけているとのこと。
*一方で、AIが生成した選挙の誤報やハリウッドスタジオによる俳優のAIクローンの作成など、2024年にすでに発生しているAIの問題に対処する5つの法案に署名してもいます。
<参照URL>
https://www.bloomberg.com/news/articles/2024-09-17/newsom-says-he-s-concerned-about-chilling-effect-of-ai-bill
https://www.forbes.com/sites/lanceeliot/2024/09/22/why-some-are-predicting-that-governor-newsom-is-going-to-veto-that-ai-existential-risk-bill-pending-in-california/
https://www.latimes.com/entertainment-arts/business/story/2024-09-17/newsom-ai-bills-sag-aftra
https://www.gov.ca.gov/2024/09/17/governor-newsom-signs-bills-to-combat-deepfake-election-content/
MSSAは、今年 2 月に設立され、モバイル衛星サービスに割り当てられ、ライセンスされているL バンドと S バンドを使用して、グローバルな「エコシステム」を開発するとしています。
現在のモバイル ネットワークは地球の陸地表面の 40% 未満しかカバーしておらず、3GPP 標準を使用した 5G NTNを使用すれば、衛星接続によってカバレッジが拡大できるようになるとしています。
他の会員企業には、Viasat、Ligado Networks、Omnispace などがいます。
<参照URL>
https://www.mss-association.org/
OpenSearch Foundation を立ち上げを発表。
Elastic が Elasticsearch および Kibana のライセンスを独自のライセンスである Elastic License に変更したのち、オープンソースライセンスのAGPLで再び提供すると発表したわずか数週間後にAmazonは対抗措置としてApacheライセンスでOpen Searchを立ち上げました。
検索、分析、観測性、ベクター データベース アプリケーションの構築に使用している検索エンジンであるOpenSearchは、クラスターベースのシステムからよりクラウドネイティブなアーキテクチャへの移行を行い、最近はコンピューティングとストレージの分離やセグメントレプリケーションなどのアップデートが導入されています。(これまでに7 億回以上ダウンロードされ、25 の組織で 200 人以上のメンテナーがいるとされます)
今回のFoundationの立ち上げにより、OpenSearch が主に AWS 主導のプロジェクトであるという認識を払拭し、
継続的な成長とより広範な採用を目指しているとされています。
Foundationの立ち上げに際して、SAP や Uber を含大企業がプレミアメンバーとして加り、Aiven、Aryn、Atlassian、Canonical、DigitalOcean、Eliatra、Graylog、NetApp Instaclustr、Portal26 が一般メンバーとして加わるとのこと。
<参照URL>
https://aws.amazon.com/jp/blogs/news/aws-welcomes-the-opensearch-foundation/
https://foundation.opensearch.org/
Bedrock を使用して構築されたこのAIアシスタントは、現在、米国の一部のAmazonパートナー向けにベータ版として提供されており、販売業者独自のビジネスを学習、販売者は英語で質問し、パーソナライズされた洞察とサポートを受けられるとのこと 。
また、このAIアシスタントを利用するのに経由する、Web ベースのダッシュボードSeller Centralは、商品のリストと価格設定、商品情報の作成、更新、設定、在庫の管理、注文の履行、パフォーマンスの追跡 、プロモーションの作成を行うための中心的なハブです。
Amelia を使用すると、例えば、販売者は「ホリデー シーズンに向けて準備すべき最も重要なことは何ですか?」などの質問をすることができ、在庫に関するベストプラクティスや、特定の販売者の在庫と過去の顧客販売指標に関するベストプラクティスに関するパーソナライズされた情報を受け取れます。
これにより、販売者は関心の高まりに合わせて製品ラインナップを準備し、前のシーズンで最も売れたカテゴリを選択し、最も多くの買い物客の目に留まるようにするにはどのような種類のプロモーションが最も効果的かを判断できるとしています。
<参照URL>
https://www.aboutamazon.com/news/innovation-at-amazon/amazon-project-amelia
COVID-19以来、過去15カ月間、従業員は週3日のオフィス勤務が求められていました。
しかし、オフィスに一緒にいることの利点は大きいとし、今後は、子どもが病気の場合など特別な事情がある場合は在宅勤務も許可するという条件付きで、週5日の対面勤務を求めています。
各企業でこの動きがありますが、こうしたオフィス復帰命令は、一部のテック系従業員の間で不評でもあります。(USA Todayによると58%の労働者は柔軟性とワークライフバランスを切望)
管理者がRTO(オフィス復帰命令)を権力掌握やパフォーマンスの低さを従業員のせいにするために利用しているという従業員の懸念は一致し、RTO命令は従業員の満足度を低下させるが、企業のパフォーマンスは向上させないという大学の調査結果もあります。
オフィスに戻るよう義務付ける根拠として、対面で協力し、仕事をこなせるようになるため、従業員の生産性が向上するという主張がなされていますが、結果は燃え尽き症候群に陥り、その状態を維持することは、生産性の向上とは正反対との見方もあります。是々非々ですね。
<参照URL>
https://www.aboutamazon.com/news/company-news/ceo-andy-jassy-latest-update-on-amazon-return-to-office-manager-team-ratio
https://www.usatoday.com/money/blueprint/business/hr-payroll/remote-work-statistics/
MetaがLlamaを構築するトレーニングデータには、FacebookやInstagramの公開ユーザー投稿が含まれています。
今年初め、MetaはEUから使用停止を要請された後、EUでのAIトレーニングにこうしたコンテンツの使用を中止。
また、データ保護規制機関である英国情報コミッショナー事務局(ICO)からの「特定の要請に対応する」(GDPR プライバシー法における人々が合理的に期待する方法で、プライバシーへの影響が最小限である方法でデータを使用する条項)ため、英国でも使用を停止していました。
3か月後の今回、今後数カ月以内に英国成人のソーシャルメディア投稿をAIトレーニングに利用することを再開すると発表。
ICOから提供されたフィードバックに基づいて、そのデータの処理方法を変更したとしています。
影響を受けるユーザーにはポリシー変更に関する通知を送信、ユーザーが AI トレーニングをオプトアウトできるフォームも開始する予定とのこと。
C2PAは、デジタルコンテンツの出所と信ぴょう性に対し、オープンスタンダードと技術仕様を策定する標準化団体
Coalition for Content Provenance and Authenticity(C2A)が策定、画像がAIを使用して生成されたのか、作成後に変更されたのかを判断できるようにします。
マニフェストと呼ばれるメタデータファイルをすべての画像に添付、画像が AI で生成されたかどうか、いつ作成されたか、およびいつ作成されたかがわかるようになり、最初のリリース後にファイルにどのような編集が加えられたかなどの他の情報を含めることもできるとのこと。
また、ハッシュを使用してフィンガープリントを生成し、マニフェストを改ざんから保護する機能も持っているとのこと。
Google は「この画像について」機能に C2PA を実装する予定としています。
Google 画像検索、レンズ、Circle to Search ツールで利用でき、ユーザーが C2PA をサポートする画像を選択すると、ファイルが AI を使用して作成または変更されたかどうかに関する情報が表示されるとのこと。
<参照URL>
https://blog.google/technology/ai/google-gen-ai-content-transparency-c2pa/
1億2000万ドルのグローバルAI機会基金を設立し、地元の非営利団体やNGOと提携して世界中のコミュニティでAI教育とトレーニングを利用できるようにするとのこと。
AIによりディープフェイクなどのリスクをもたらすとしつつも、人々が自分の言語で情報にアクセスできるようにすること、科学的発見を加速すること、気候災害に関する警報や追跡を提供すること、そして経済発展を促進することをメリットとして挙げています。
また、規制によって、AIの格差が拡大し、AIのメリットが制限される可能性があるとして、AIによる弊害は緩和しつつも、国家保護主義ではないスマートな製品規制も求めています。
<参照URL>
https://blog.google/inside-google/message-ceo/united-nations-keynote-2024/
新たに締結された20年の契約では、電力網の脱炭素化として、かつでスリーマイル島原発事故(米国史上最悪のメルトダウン事故)の舞台となったスリーマイル島原発で事故の影響がなく2019年まで稼働していた1号炉を16億ドルをかけて改修、クリーンエネルギーセンターとし、米国原子力規制委員会承認を得たうえで2028年までに再稼働、Microsoftのデータセンター向けに電力を供給するとのこと。
Microsoftのデータセンターの電力使用量の増加は、収容されている多数のGPUが一部起因しているとされます。
報道によると、Microsoftは年末までにデータセンターに 140 万個の GPU の導入を検討しているとのこと。(NVIDIA H100グラフィックカードは、年間3,700キロワット時以上の電力を消費、後継機であるBlackwell B200は、さらに多くの電力を消費するとされています)
また、Microsoftは、Sidekickと呼ぶカスタム冷却システムを 開発しており 、サーバーラックに直接取り付けて、内部のハードウェアに冷却液を循環させることを検討しています。
<参照URL>
https://www.constellationenergy.com/newsroom/2024/Constellation-to-Launch-Crane-Clean-Energy-Center-Restoring-Jobs-and-Carbon-Free-Power-to-The-Grid.html?ftag=YHF4eb9d17
https://www.bloomberg.com/news/articles/2024-09-20/microsoft-s-ai-power-needs-prompt-revival-of-three-mile-island-nuclear-plant?srnd=homepage-americas
https://news.microsoft.com/source/features/ai/in-house-chips-silicon-to-service-to-meet-ai-demand/
Microsoft 365 Copilot 顧客向けにリリースされ、2024 年 9 月に一般公開される予定のCopilot Pagesは、Web や企業のナレッジ ベースからデータを取得し、それをユーザー間で共有できるチームコラボレーション向け生成AIツールです。
ユーザーは任意のテーマについて質問し 、 LLMが、Web データ、作業データ、ビジネス データを格納できる集中型データリポジトリである Business Chat (BizChat とも呼ばれる) から情報を取得、共有可能なキャンバスとして機能するページに配置した応答を作成します 。
チーム メンバーと共同でページ上で作業し、全員の作業をリアルタイムで確認しながら、パートナーのように Copilot で繰り返し作業することができるとのこと。
また、Copilot Studio を搭載したAgent Builder(SharePoint に導入、10 月初旬にパブリック プレビュー) を使用してAIエージェントを簡単に構築できるようにしています。
これにより、BizChat から構築するエージェントのタイプ、必要なタスクとスキルを自然言語で記述することで、
AIエージェントを簡単に作成できるともしています。
そのほか、Excel、Powerpoint、Teams、Outlook、Wordなども生成AI機能のアップデートと機能強化が行われています。
<参照URL>
https://www.microsoft.com/en-us/microsoft-365/blog/2024/09/16/microsoft-365-copilot-wave-2-pages-python-in-excel-and-agents/
https://www.microsoft.com/en-us/microsoft-copilot/blog/copilot-studio/unveiling-copilot-agents-built-with-microsoft-copilot-studio-to-supercharge-your-business/
このパートナーシップでは、コンピューティング能力の需要増大に対応するため、新規および拡張データセンターへの投資を行うほか、これらの施設に新たな電力源を確保するためのエネルギーインフラへの投資も行い、さらに、NVIDIAが、AI技術のエネルギー需要に関して専門知識を提供するとしています。
<参照URL>
https://www.ft.com/content/4441114b-a105-439c-949b-1e7f81517deb
https://www.global-infra.com/news/global-infrastructure-partners-blackrock-microsoft-and-mgx-launch-new-ai-partnership-to-invest-in-data-centers-and-supporting-power-infrastructure/
近年Insight Partnersが出資した企業には、話題のサイバーセキュリティ企業Wizや、Mastercardに26億5000万ドルで売却された脅威インテリジェンス企業Recorded Future、Salesforceが19億ドルで買収したクラウドアプリケーションでデータをバックアップするたOwn等があります。
今回のファンドでは、最終的に約120億ドルでクローズする可能性があるとFinalcial Timesは伝えていますが、ベンチャー業界全体で資金調達が活発だった2022年の12号ファンドの200億ドルよりははるかに少ないとのこと。
<参照URL>
https://www.ft.com/content/566213ea-c445-4b70-b5f2-8451111fcfef
Qualcomm SnapdragonベースでAndroid カーネルを使用するSpectacles 5 は開発者向けに特別に設計され、月額 99 ドルの年間契約であるとのこと。
SnapのLens Studio 開発者プログラムを通じてハードウェアを申請する必要があり、承認されると、Snap Lab チームのサポートが提供されます。
<参照URL>
https://www.spectacles.com/
https://newsroom.snap.com/sps-2024-spectacles-snapos?lang=en-US
将来的には、カスタム アニメーション ジェネレーターや、クリエイターがオブジェクトのビデオをLens Studio にアップロードして 3D アセットとして再構築できるようにするツールなど、さらに多くの生成機能を Lens Studio に追加する予定とのこと。
Easy Lens
英語の説明から、写真や動画、ARのオブジェクト、3D 効果、キャラクターを生成、 Snap ブランドのLensに変換
Body Morph
テキストキャプションや参照画像から 3D キャラクター、コスチューム、衣装を作成
My AI Chatbot
より複雑なスナップに応答できるようになり、Google Lens に似た動作をするように
<参照URL>
https://experience.snap.com/sps?lang=en-US
Waymoは、サンフランシスコ、フェニックス、ロサンゼルスで独自の自動運転配車サービスWaymo Oneを提供、週に約10万回の運行を行っているとしています。
今回フェニックスに次ぎ、2都市でUberの配車サービスから呼べるようになり、時間の経過とともに数百台に増えるとのこと。
<参照URL>
https://waymo.com/waymo-one-austin/
o1 は数学と科学をより効果的に推論できるだけでなく、クエリのすべての部分をより時間をかけて検討することで、自ら事実確認もできるとのこと。
OpenAI o1 は、答えを出す前に「考える」という点でユニークで、マルチステップ推論を実用化し、大きな問題を小さなステップに分解し、そのステップの 1 つが正しいか間違っているかを特定しようとするとしています。
強化学習アルゴリズムをOpenAIの言語モデル技術と組み合わせてトレーニングできれば、技術的に段階的な思考を作り出し、AIモデルはあなたが解決しようとしている大きなアイデアから逆方向に進んでいくようにすることができるとのこと。
一方で、OpenAI o1は推論と複雑な質問への回答に優れているものの、モデルの使用コストはGPT-4oの約4倍で、
GPT-4のマルチモーダル機能や速度が欠けているとされます。
それでも、企業顧客にとって、新しい o1 モデルは大きな飛躍を意味するとされます。
金融からヘルスケアまで、さまざまな業界の企業が、自動化だけでなく、人間の専門知識が限られている複雑でリスクの高い問題を解決するために AI を活用するようになっており、o1 モデルの推論、戦略の改良、間違いの認識能力は、これらのユースケースに最適とされます。
複雑なデータセットやワークフローを扱う企業にとって特に有用とされ、たとえば、o1-preview モデルは、物理学者が複雑な量子光学式を生成するのを支援したり、医療研究者が大規模なゲノムデータに注釈を付けたりするのに役立ち、反復的な低レベルのタスクを処理していたこれまでの AI モデルとは対照的とされます。
<参照URL>
https://openai.com/index/introducing-openai-o1-preview/
https://openai.com/o1/
https://openai.com/index/learning-to-reason-with-llms/
開発者はApache 2.0 ライセンスのもとで、API 提供プラットフォームである La Plateforme を通じて、AI モデルを無料で実験、評価、プロトタイプ化できるとのこと。
ただし、本番環境で使用するには、レート制限がより高い有料版へアップグレードする必要があるかもしれないとしています。
また、API エンドポイントを介して Mistral NeMo、Mistral Small、Codestral にアクセスする価格を 50% 以上引き下げ、Mistral Large の価格を 33% 引き下げ。
無料の消費者向けAIチャットボットle Chatで画像とテキストを処理できるマルチモーダルモデル、Pixtral 12B が、
利用可能になったとしています。
<参照URL>
https://mistral.ai/news/september-24-release/
Anthropic、Hugging Face、Runway、Together AI などに投資するこのCVCは、
2023年6月にAIファンドを2億5000ドルから5000ドルに倍増しており、追加の5億ドルによりAIファンドは10億ドルになります。
<参照URL>
https://salesforceventures.com/perspectives/salesforce-ventures-expands-ai-investment-to-1-billion/
AIエージェント 「Agentforce」 の導入の他、様々な機能を発表しています。
Salesforce Channels
CRMデータをSlackチャンネルに直接取り込み、ユーザーがSlack内でリアルタイムにデータを編集・更新できるように。
AI Workflow Builder
Slackユーザーは対話形式の簡単な指示で作業の自動化が可能に。
Slack AI
会話データだけでなく、ファイルやアプリケーションからも回答を生成し、より豊富で関連性の高い情報を提供。
<参照URL>
https://www.salesforce.com/dreamforce/
デスクワーカーは情報を探し回らなくても済むように、ワークフローを1か所に統合したいと考えるようになっているとし、有料ユーザー向けの新しい「Slack 用エージェント」を発表。
Salesforceの AI エージェントAgentforce、サードパーティ エージェント、Slack 顧客独自のエージェントをチャットに導入可能になったとのこと。
AI エージェントを Slack に導入すると、ユーザーは Slack の専用インターフェースから、たとえば Agentforce を呼び出すことができます。
これにより、ユーザーは Slack の顧客関係管理システムに保存されているデータに関して質問をすることができ、AIエージェントが次のステップを推奨したり、ユーザーに代わってメールの下書きを作成したりできるとのこと。
ただし、エージェントが顧客情報にアクセスできるのは限定的で、APIは、データをエクスポートしたり、保存したり、LLM トレーニングに使用したりできない制約があるともしています。
<参照URL>
https://slack.com/intl/ja-jp/features/ai
https://api.slack.com/docs/apps/ai
https://www.salesforce.com/news/stories/slack-dreamforce-24/
Linkedinは、EUのGDPRが適用されるEU、EEA、スイス在住のユーザーの情報は処理していないと明言していましたが、EUと同様のデータ保護法が存在する英国が対象となっていないとの批判があり、プライバシーポリシーをひそかに修正、現地ユーザーのデータを処理していないとして、オプトアウトを提供しない欧州地域のリストに英国を追加しました。
英国情報コミッショナー事務局(ICO)の規制リスク担当はLinkedinの対応を歓迎しています。
<参照URL>
https://www.linkedin.com/blog/member/trust-and-safety/updates-to-our-terms-of-service-2024
https://x.com/PrivacyMatters/status/1837022255198404680
開発者と企業に、非常に効率的でスケーラブルなプラットフォームを提供することで、生成 AI 市場でより大きなシェアを獲得することを目指すSambaNovaは、独自の SN40L AI チップ を用いて、1 秒あたり 405 トークンの速度を提供するLlama 3.1 405B モデルベースのデモを公開しました。
*Cerebras に次いで 2 番目に高速な Llama モデルプロバイダーとなっています。
ウェハー丸ごとチップにしたCerebrasの第3世代チップ CS-3(4兆個のトランジスタ、最大のGPUの56倍の大きさ)はLlama 3.1 8B モデルで驚異的な 1,800 トークン/秒の処理をたたき出してます。
トークンが高速化すれば、レイテンシが短縮され、ハードウェア コストが削減され、リソースをより効率的に使用でき、顧客サービスへの対応の迅速化、ドキュメント処理の高速化、自動化のシームレス化など、現実的なメリットにつながります。
SambaNovaのSN40L AI チップ は、自動化された顧客サービス、リアルタイムの意思決定、AI 搭載エージェントなど、迅速な応答を必要とするエンタープライズ アプリケーションにとって重要な高速トークン生成用に特別に設計されています。
また、16ビット浮動小数点精度を使用することで、AI 処理の高速性と信頼性の両方を実現しているとしています。
これにより、高速でオープンソースの代替手段を提供、開発者や企業に OpenAI と Nvidia に匹敵する新しい選択肢を提供するとのこと。
<参照URL>
https://huggingface.co/spaces/kz919/Llama3.1-Instruct-O1
Confluentは、Apache KafkaのコントリビューターでConfluent Cloudのベースにしていましたが、昨年、Apache Flink もサポートしています。
Apache Flink は、大量の情報をリアルタイムで処理し、システム間でデータ移動することを容易にするオープンソースのビッグデータ処理ツールです。
Apache Flink を統合することで、顧客が Kafka を使用してデータをあるシステムから別のシステムにリアルタイムでストリーミングし、Flink を使用してその情報を変更および処理できるようにします。
今回の新バージョンでは、Java / Python プログラミング言語を使用する開発者がApache Flink が使いやすくなる Table API のサポートが含まれ、リアルタイム開発ユースケースをサポートする Visual Studio Code の拡張機能、機密データを保護するためのプライベート ネットワーク機能とクライアント側の暗号化も追加されるとのここと。
企業は Confluent Cloud を使用して、オンプレミス サーバーからクラウドにストリーミングされるログなどのデータに誤った情報が含まれている可能性があるものをフィルタリングでき、複数のデータ ストリームを 1 つのストリームにマージすることもできるとしています。
これにより、外部ソースからの追加情報でリアルタイム データを充実させることができ、機械学習、予測メンテナンス、パーソナライズされた推奨事項、不正検出などで活用できるとのこと。
<参照URL>
https://docs.confluent.io/cloud/current/release-notes/index.html
YugabyteDB は、あらゆるパブリック クラウドやプライベートクラウド、Kubernetes 環境で実行できる、特殊な高性能分散構造化クエリ言語データベースとして高い評価を得ています。
クエリの待ち時間が少なく、障害に対して極めて高い耐性があり、グローバルなデータ分散を必要とするアプリケーションに最適であると主張していますが、最大の特徴は、SQL と NoSQL の両方の機能を 1 つのプラットフォームにまとめることができる(NewSQL)=構造化データと非構造化データの両方を処理できる点です。
とはいえ、依然として比較的ニッチな製品で、PostgreSQL DBほどの人気はまだありませんが。(PostgresSQLは、回復力と拡張性が限られているという問題があります。)
今回、これまでの Postgres と互換性のあるプラットフォームから、分散型 PostgreSQL DBに刷新したとのこと。
また、開発者が重要なデータを PostgreSQL システムから Yugabyte DB に簡単に移行できるようにする、AI搭載の Voyager Modernization Co-Pilot を発表しています。
<参照URL>
https://www.yugabyte.com/blog/yugabytedb-enhanced-postgres-compatibility/
効率性とコストに重点を置いてKubernetesクラスターを監視および最適化するスタートアップKubecostは、CNCFサンドボックスプロジェクトOpenCostのコントリビューターであり、有償版のKubecost Cloudを提供しています。
Allianz、Audi、楽天、GitLabなどが利用しています。
今回のKubeCostの買収により、ITおよびFinOps機能を強化、企業はますます複雑化するクラウドおよびオンプレミスのインフラストラクチャをより適切に管理できるようになるとしています。
すでに買収済みの Cloudability (Apptio) と Turbonomic を組み合わせたFinOps Suiteに Kubecost を統合するとのこと。
IBM は現在、Kubecost、Apptio Cloudability、Turbonomic といった重複する資産を複数保有しており、自動化/オーケストレーションの面では Red Hat Ansible、Hashicorp Terraform、Pliant、Cloud Pak for Network Automation (CP4NA) などがありますが、IBMとしては重複ではなく補完的だとのこと。
Intel Foundryを完全に独立した子会社とし、Intelから独立させる計画であるとのこと。
Intelはもともと半導体製造事業を再建戦略の重要な要素としており、数年前にはこの事業を利用して他のチップメーカー向けの半導体を製造ていましたが、財務にとって大きな足かせとなっており、過去2年間で約500億ドルが流出(2023年度に70億ドル以上の営業損失を計上)したと報じられています。
一方で、AIカスタムチップの製造でAWSと複数年契約を結んだと発表もしています。
AWSはIntelの最大の顧客の一つであり、毎年同社のクラウドサーバーを動かすために数百万のCPUを購入しているとのこと。最新の18A製造プロセスでのカスタムチップ製造で立て直しを図っています。
<参照URL>
https://www.intel.com/content/www/us/en/newsroom/news/foundry-momentum-progress-plan.html
https://www.intel.com/content/www/us/en/newsroom/news/intel-strategic-collaboration.html
https://asia.nikkei.com/Business/Tech/Semiconductors/Intel-to-make-custom-AI-chip-for-Amazon-Web-Services
今のところQualcomm沈黙・Intel否定。
Intelは、今年第2四半期に16億ドルの損失を計上し、1万5000人の人員削減を含む100億ドルのコスト削減計画を発表、赤字が多い半導体製造事業Intel Foundryの子会社化など苦境のなか報道がなされています。
Intelの現在の時価総額は約900億ドル、Qualcommは約1900億ドルとなっています。
<参照URL>
https://www.wsj.com/business/deals/qualcomm-approached-intel-about-a-takeover-in-recent-days-fa114f9d?st=mQdBw7&reflink=desktopwebshare_permalink
https://www.nytimes.com/2024/09/20/technology/qualcomm-intel-talks-sale.html
Ampereは、Armアーキテクチャをベースとするサーバー用プロセッサを開発しており、Arm の Neoverse シリーズをベースとするAmpereOn CPUは、192 個のカスタムコア、最大 32 枚のGPU、SSD、その他のデバイスを接続できる 128 個の PCIe レーンと、組み込みの暗号化機能を持ち、AMDよりも性能で優れているとアピールしています。
また、最新のAuroraは、AIワークロードに最適化された回路が搭載されていると発表もしています。
現在、Oracle、Microsoft、GoogleなどのArmインスタンスのサーバとして採用されています。
AI 時代向けのデータ センター自動化プラットフォームであるEDAは、Kubernetes 環境を前提に、ネットワークの中断とアプリケーションのダウンタイムを削減し、運用上の労力を最大 40% 削減するとしのこと。
EDA は、オンプレミスおよびクラウドサブスクリプション モデルを通じて利用できるとしています。
<参照URL>
https://www.nokia.com/about-us/news/releases/2024/09/17/nokia-launches-industrys-most-modern-data-center-automation-platform-built-for-the-ai-era/
Inside Nokia’s Event-Driven Automation (EDA) platform