トール (テックナビ)
@technavi_tooru
AI、テクノロジー、ガジェット、気になるテックニュースなどを発信しています。最新のテクノロジー情報を知りたい方、スキルアップしたいビジネスパーソン、IT業界への転職を考えている方などのお役に立てればと思います。
Claude Codeの最新機能「Agents」を検証してみた! youtu.be/b51pJtYel5I?si…
Googleが米国で試験提供する「Opal」は、テキスト入力や既存アプリの改変で簡単にミニウェブアプリを作成可能な新たな「バイブ・コーディング」ツールです。技術不要でアプリ開発の壁を大幅に下げます。 techcrunch.com/2025/07/25/goo…
Claude code agentsはいいですね!ロール毎に分けることでcontext poisoning は結構減ってる気がします!
You can now run Qwen3-235B-A22B-Thinking-2507 with our Dynamic 2-bit GGUFs! The full 250GB model gets reduced to just 87GB (-65% size). Achieve >6 tokens/s on 88GB unified memory or 80GB RAM + 8GB VRAM. GGUFs: huggingface.co/unsloth/Qwen3-…
🚀 We’re excited to introduce Qwen3-235B-A22B-Thinking-2507 — our most advanced reasoning model yet! Over the past 3 months, we’ve significantly scaled and enhanced the thinking capability of Qwen3, achieving: ✅ Improved performance in logical reasoning, math, science & coding…
GPT-5は8月後半かなと思いましたけどもしかするとそろそろ?
Breaking 🚨: GPT-5 spotted on Microsoft Copilot @OpenAI will be releasing it soon!!
🚀 Introducing Qwen3-MT – our most powerful translation model yet! Trained on trillions of multilingual tokens, it supports 92+ languages—covering 95%+ of the world’s population. 🌍✨ 🔑 Why Qwen3-MT? ✅ Top-tier translation quality ✅ Customizable: terminology control, domain…
イーロン・マスク率いるxAIが、今後5年間でNvidia H100相当のAI GPUを5,000万台規模に拡大計画を公表。現在は約23万台のGPUが稼働中で、その中に3万台のGB200も含まれる。AI分野のインフラ戦略が次の革新を切り拓く。 tomshardware.com/tech-industry/…
OpenAIのサム・アルトマンCEOが、AIによる音声詐欺が従来の認証技術を突破し、金融業界に深刻な詐欺危機をもたらすと警鐘を鳴らしました。より安全な認証手段の開発が急務です。 the-decoder.com/sam-altman-war…
Qwen/Qwen3-Coder with tool calling is supported in LM Studio 0.3.20, out now. 480B parameters, 35B active. Requires about 250GB to run locally.
Protonが新たに発表したLumoは、端末間での完全暗号化とログ不保持を実現したプライバシー重視のAIアシスタントです。アカウント不要で幽霊モード搭載、ユーザーの会話を徹底的に保護します。 techcrunch.com/2025/07/23/pro…
オックスフォード大学の研究で、ChatGPTやClaudeなどAIチャットモデルが利用者の人種・性別・年齢によって回答内容を変え、非白人には低い初任給を提案する傾向が明らかに。AI公平性の課題が浮き彫りに。 unite.ai/language-model…
大型言語モデルの推論速度を2倍に向上させる革新的手法「Mixture-of-Recursions(MoR)」が登場。再帰的なTransformer層の活用とトークン別動的計算、効率的なキー・バリュー共有で高速・省メモリ推論を実現します。 venturebeat.com/ai/mixture-of-…
AIの性能向上に必ずしも「思考時間の延長」が効果的とは限らないことが明らかに。Anthropicの研究では、長時間の推論が無関係な情報に気を取られ、逆に精度を下げてしまう場合があった。単純な処理時間増加が最善策ではない未来を示唆しています。 venturebeat.com/ai/anthropic-r…
Gemini 2.5 Flash-Lite is now generally available! It's our most cost-efficient and fastest 2.5 model yet, *and* you can try it on Vertex AI today! goo.gle/4mb43qT
OpenAIはOracleと4.5GWのデータセンター容量拡大契約を締結し、Stargate計画を大幅に拡充。全米に多数の施設を建設し、100,000超の雇用創出&2029年までに5,000億ドル規模のAIインフラ投資を目指します。 maginative.com/article/openai…
Run Qwen3-Coder with our Dynamic 2-bit GGUFs! ⭐ We shrank the 480B parameter model to just 182GB (down from 512GB). Also, run with 1M context length. Achieve >6 tokens/s on 182GB unified memory or 158GB RAM + 24GB VRAM. Qwen3-Coder-480B-A35B GGUFs: huggingface.co/unsloth/Qwen3-…
>>> Qwen3-Coder is here! ✅ We’re releasing Qwen3-Coder-480B-A35B-Instruct, our most powerful open agentic code model to date. This 480B-parameter Mixture-of-Experts model (35B active) natively supports 256K context and scales to 1M context with extrapolation. It achieves…