遇和不遇

人生世,總在遇和不遇之間。作為退休理科教師,我們遇到同好者一起寫博文,同一議題,可各抒己見,有時會遇到教過的學生、共事的老師、久違的上司,什麼樣的熟人、朋友,什麼樣的男人、女人,全不由我們做主,卻決定我們的電腦瀏覽器博文和瀏覽的博客以前在學校工作,如果工作順利、生活幸福,某一天早上醒來,我們會感謝命運,讓自己在那些重要的時刻遇到了合適的人,可能是同事的幫助,勤奮的學生如果某日諸事不利,那麼,會遇到倒楣的事情,忘記帶教具,忘記這,忘記那。生命是一個漫長的過程,佔據人一生大部分時光的,是他的職業生涯,平時人們常講的遇和不遇,也多指工作和職業中的遭際。退休後遇到的,多是舊同學,興趣相似的羣組,在談天說地之際,偶有佳作,不想輕易忘記,乃存之於小方塊中,給遇和不遇的博客觀賞,如此而已!

2025年3月14日 星期五

AI頓悟

DeepSeek一日千里,開了眼界。想要的幫手,它都手到拿來。

DeepSeek-R1,圖像讀圖分析,深度求索,允許用戶通過蒸餾技術借助R1訓練其他模型。相信不單是助手,而是能提供思考,進行獨立分析了。

DeepSeek-R1後訓練階段大規模使用了強化學習技術,在僅需極少數據情況下,提升模型推理能力,比肩OpenAI o1正式版。

訓練過程中,觀察到一個特別有趣的現象,那就是「頓悟時刻」(Aha Moment)的出現:通過重新評估其最初的方法,為問題分配更多時間進行推理思考,在強化學習中引人入勝,導致意外和跳躍的複雜結果。

根據媒體披露,兩個對家,同樣的團隊,大部分都是同根生;大家想的和做的,如此近、那麼遠。

中華文字,識字的學習,已在進行思考和分析,同一個字,不單是Linguistic,而是對事物的參透。

口說一句話,所含的字串,都帶着大千世界的濃縮;超越了圖像,直去人們心內所想的究竟涵意。

想想這也是奇妙的連結:數十年之後,會否一笑泯恩仇?這一切爭端,又會怎樣?

想起當年的「英雄趕派克」現象,為了一支筆,鬥得精采;當年戰勝美帝的英雄100鋼筆,成為國民引以為豪的製成品,至今,仍是價高一等。英雄100比同級派克61,當年的產品現在賣貴幾十倍,值幾千元。

為了一支筆,今天看來有點可笑。筆在當年的意義,就等於電腦現在取代書寫工具,表達思想、溝通傳達。

以下是關於DeepSeek-R1的概況

我們可以將 DeepSeek-R1 部署到 SageMaker,特別是 Llama-70b 濃縮變體 DeepSeek-R1-Distill-Llama-70B SageMaker 實時端點。DeepSeek-R1 是由 AI 初創公司 DeepSeek 開發的先進 LLM,它使用強化學習技術來增強其推理能力,使其能夠執行複雜任務,如數學問題解決和編碼。

DeepSeek-R1 模型現已在 Amazon Bedrock Marketplace Amazon SageMaker JumpStart 上提供,並深入了解構建 DeepSeek-R1 背後的理論。

SageMaker AI 上的生成 AI

SageMaker AI 是一個完全管理的服務,提供一套全面的工具,旨在為多種用途提供高性能、成本效益的機器學習(ML)和生成 AI 解決方案。SageMaker AI 能夠透過一系列服務(包括筆記本、作業、托管、實驗追蹤、精選模型中心和 MLOps 功能)在統一的整合開發環境(IDE)中構建、訓練、部署、監控和管理 ML 和生成 AI 模型。

SageMaker AI 簡化了生成 AI 模型構建者的所有技能水平的流程,以便與基礎模型(FMs)一起使用:

·         Amazon SageMaker Canvas 使數據科學家能夠無縫地使用其自有數據集與 FMs 一起建立應用程式和架構模式(如聊天機器人和檢索增強生成(RAG)),在低代碼或無代碼環境中。

·         Amazon SageMaker JumpStart 提供了來自提供商(如 Hugging FaceMeta Stability AI)的開放和專有 FMs 的多樣選擇。用戶可以透過直觀的用戶界面或 API 部署或微調模型,提供所有技能水平的靈活性。

·         SageMaker AI 功能(如筆記本、Amazon SageMaker Training、推理、Amazon SageMaker for MLOps 和合作夥伴 AI 應用程式)使高級模型構建者能夠使用 LoRA、完全微調或從頭開始訓練來適應 FMs

這些服務支援從單個 GPU HyperPodsGPU 集群)的訓練,並包括用於追蹤、調試和部署的內置 FMOps 工具。

以下是關於OpenAI o1的概況

OpenAI o1是一個基於轉換器的生成式預訓練模型2024912日,OpenAI發布了o1的預覽版,完整版本於2024125日發布。 o1在回答問題之前會進行「思考」,使得它在處理複雜的任務、科學和編程方面比GPT-4o更優秀。

背景

據洩露的信息顯示,o1以前在OpenAI內部被稱為「Q*」,後來更名為「草莓」。代號「Q*」於202311月首次披露,大約是在薩姆·阿爾特曼被罷免並隨後復職的時期。據稱這個實驗模型在數學基準測試方面表現出更加理想的結果。

20247月,路透社報道稱OpenAI正在開發名為「草莓」的生成式預訓練模型。

發布

o1-previewo1-mini2024912日面向ChatGPT Plus用戶和ChatGPT for Teams用戶發布。 GitHub在發布當天開始測試將o1-preview集成到Copilot服務中。 2024125日,o1完整版發布。 同一天,ChatGPT Pro訂閱服務發布,該訂閱服務包括訪問o1的專業版,該版本使用更多算力來提供更好的答案。

OpenAI指出,o1是一系列「推理」模型中的第一個。o1-previewAPIGPT-4o貴好幾倍。 OpenAI計劃向免費用戶提供o1-mini版模型,但在發布時尚未公布具體時間。

20241220日,OpenAI透露正在測試新版本推理模型OpenAI o3,預計將於1月底推出OpenAI o3-mini

功能

OpenAIo1使用了一種新的優化算法和專門的數據集進行了訓練,同時還將強化學習融入到其訓練中。 OpenAI形容o1GPT-4o的增強版。

OpenAI-o1在回答問題前會花更多時間思考,這使得它在處理複雜思維任務時更加有效,特別是在科學和數學方面。 與之前的模型相比,o1被訓練為可以在輸出最終答案之前生成較長的「思路鏈」。據米拉·穆拉蒂稱,這種先思考後回答的能力代表了一種新的、額外的範例,通過在生成答案前使用更多的算力來改善模型輸出,而模型擴展(model scaling paradigm)則通過增加模型大小、訓練數據和訓練算力來改進輸出。 OpenAI的測試結果表明,準確率與回答前思考所花費的計算量之間存在相關性。

o1-preview在物理、化學和生物相關的基準測試中的表現達到了博士水平。在美國數學邀請賽中,它解決了83%12.5/15)的問題,而GPT-4o僅解決了13%1.8/15)。它還在Codeforces編程競賽中優於89%的參賽者。 o1-minio1-preview更快且便宜80%,它特別適合編程和理工科相關的任務,但沒有o1-preview「廣博」。

OpenAI指出,o1的推理能力使其能更好地遵守上下文窗口中提供的安全規則。 OpenAI報告稱,在一次測試中o1-preview的一個實例利用錯誤配置成功完成了一項本無法完成的任務。OpenAI還授予美國和英國的人工智慧安全研究所早期訪問(early access)權限,以進行研究、評估和測試。根據OpenAI的評估,o1-previewo1-miniCBRN(生物、化學、放射和核武器)中屬於「中等風險」。人工智慧安全中心的主任丹·亨德里克斯(Dan Hendrycks)稱:「模型在回答與生物武器相關的問題時的表現在大多數時候已經超過了博士科學家」,他表示,「這些令人擔憂的能力還將繼續增強」。

1 則留言: