AI DeepSeek R1 của Trung Quốc đạt 98% hiệu suất OpenAI o1 với chi phí thấp hơn rất nhiều

Kai Phạm

Chủ nhật, 26/01/2025 07:30 (GMT+7)

Các nhà nghiên cứu AI Trung Quốc đã đạt được điều mà nhiều người nghĩ là còn cách xa hàng thiên niên kỷ: một mô hình AI mã nguồn mở miễn phí có thể so kè hoặc vượt qua hiệu suất của các hệ thống lý luận tiên tiến nhất của OpenAI. Điều khiến điều này càng ấn tượng hơn là cách họ thực hiện: cho phép AI tự học qua thử và sai, giống như cách con người học hỏi.

“DeepSeek-R1-Zero, một mô hình được huấn luyện qua học củng cố quy mô lớn (RL) mà không có bước tinh chỉnh giám sát (SFT) ban đầu, cho thấy khả năng lý luận đáng kinh ngạc,” bài báo nghiên cứu viết.

“Học củng cố” là một phương pháp trong đó mô hình được thưởng khi đưa ra quyết định đúng và bị phạt khi đưa ra quyết định sai, mà không biết cái nào là đúng hay sai. Sau một loạt các quyết định, mô hình học cách đi theo con đường đã được củng cố bởi các kết quả đó.

Ban đầu, trong giai đoạn tinh chỉnh giám sát, một nhóm người hướng dẫn mô hình kết quả mong muốn mà họ muốn, cung cấp cho nó ngữ cảnh để biết cái gì là tốt và cái gì không. Điều này dẫn đến giai đoạn tiếp theo, Học củng cố, trong đó mô hình đưa ra các kết quả khác nhau và con người xếp hạng những kết quả tốt nhất. Quá trình này được lặp đi lặp lại cho đến khi mô hình biết cách cung cấp kết quả thỏa đáng một cách nhất quán.

Nguồn: Deepseek

DeepSeek R1 là một bước tiến trong phát triển AI vì con người có một vai trò tối thiểu trong quá trình huấn luyện. Khác với các mô hình khác được huấn luyện trên lượng dữ liệu giám sát lớn, DeepSeek R1 chủ yếu học qua học củng cố cơ học—thực chất là tự tìm hiểu mọi thứ qua thử nghiệm và nhận phản hồi về những gì hiệu quả.

“Thông qua RL, DeepSeek-R1-Zero tự nhiên phát triển nhiều hành vi lý luận mạnh mẽ và thú vị,” các nhà nghiên cứu cho biết. Mô hình này thậm chí phát triển các khả năng tinh vi như tự xác minh và phản ánh mà không cần được lập trình cụ thể để làm vậy.

Khi mô hình đi qua quá trình huấn luyện, nó tự nhiên học cách phân bổ thêm “thời gian suy nghĩ” cho các vấn đề phức tạp và phát triển khả năng nhận ra sai lầm của chính nó. Các nhà nghiên cứu đã nhấn mạnh một “khoảnh khắc a-ha” khi mô hình học cách đánh giá lại những phương pháp tiếp cận ban đầu đối với các vấn đề—một điều mà nó không được lập trình để làm.

Các chỉ số hiệu suất rất ấn tượng. Trên thước đo toán học AIME 2024, DeepSeek R1 đạt tỷ lệ thành công 79,8%, vượt qua mô hình lý luận o1 của OpenAI. Trên các bài kiểm tra lập trình chuẩn hóa, mô hình này thể hiện “mức độ chuyên gia”, đạt xếp hạng Elo 2.029 trên Codeforces và vượt qua 96,3% đối thủ con người.

Nguồn: Deepseek

Nhưng điều thực sự làm DeepSeek R1 nổi bật là chi phí của nó—hoặc nói chính xác là không có chi phí. Mô hình này thực hiện các truy vấn với giá chỉ 0,14 USD mỗi triệu token, so với 7,5 USD của OpenAI, giúp nó rẻ hơn 98%. Và không giống các mô hình sở hữu khác, mã nguồn và phương pháp huấn luyện của DeepSeek R1 hoàn toàn mã nguồn mở theo giấy phép MIT, nghĩa là bất kỳ ai cũng có thể lấy mô hình, sử dụng và chỉnh sửa mà không có bất kỳ hạn chế nào.

Nguồn: Deepseek

Phản ứng của các nhà lãnh đạo AI

Sự ra mắt của DeepSeek R1 đã kích thích một làn sóng phản hồi từ các lãnh đạo ngành AI, với nhiều người nhấn mạnh tầm quan trọng của một mô hình mã nguồn mở hoàn toàn có thể đối đầu với các mô hình lý luận sở hữu.

Nhà nghiên cứu hàng đầu của Nvidia, Tiến sĩ Jim Fan, đưa ra bình luận sắc bén nhất, rút ra sự tương đồng trực tiếp với sứ mệnh ban đầu của OpenAI. “Chúng ta đang sống trong một dòng thời gian mà một công ty không phải của Mỹ đang duy trì sứ mệnh ban đầu của OpenAI—nghiên cứu tiền tuyến thực sự mở, trao quyền cho tất cả mọi người,” Fan ghi nhận, ca ngợi sự minh bạch chưa từng có của DeepSeek.

Fan cũng chỉ trích tầm quan trọng của phương pháp học củng cố của DeepSeek: “Họ có lẽ là dự án mã nguồn mở đầu tiên cho thấy sự phát triển bền vững lớn của vòng quay học củng cố.” Ông cũng khen ngợi cách mà DeepSeek chia sẻ trực tiếp “các thuật toán thô và các đường cong học matplotlib” thay vì những thông báo đầy phô trương thường thấy trong ngành.

Nhà nghiên cứu của Apple, Awni Hannun, cho biết mọi người có thể chạy phiên bản định lượng của mô hình này trên các máy Mac của họ.

Truyền thống, các thiết bị của Apple vốn yếu trong AI do thiếu khả năng tương thích với phần mềm CUDA của Nvidia, nhưng điều đó có vẻ đang thay đổi. Ví dụ, nhà nghiên cứu AI Alex Cheema đã có thể chạy mô hình đầy đủ sau khi tận dụng sức mạnh của 8 đơn vị Mac Mini của Apple chạy cùng nhau—vẫn rẻ hơn so với các máy chủ cần thiết để chạy các mô hình AI mạnh mẽ nhất hiện nay.

Tuy nhiên, phản ứng thú vị nhất là khi suy ngẫm về việc ngành công nghiệp mã nguồn mở đã gần với các mô hình sở hữu như thế nào, và tác động tiềm tàng mà sự phát triển này có thể có đối với OpenAI với tư cách là người dẫn đầu trong lĩnh vực các mô hình lý luận AI.

Người sáng lập Stability AI, Emad Mostaque, đã có quan điểm táo bạo, cho rằng việc phát hành này tạo áp lực lên các đối thủ có vốn đầu tư lớn hơn: “Bạn có thể tưởng tượng mình là một phòng thí nghiệm tiền tuyến đã huy động được một tỷ đô la và giờ bạn không thể phát hành mô hình mới nhất của mình vì nó không thể đánh bại DeepSeek?”

Theo cùng một lý luận nhưng với lập luận nghiêm túc hơn, doanh nhân công nghệ Arnaud Bertrand giải thích rằng sự xuất hiện của một mô hình mã nguồn mở cạnh tranh có thể gây hại cho OpenAI, vì điều này làm giảm sự hấp dẫn của các mô hình của nó đối với những người dùng lớn, những người có thể sẵn sàng chi tiêu rất nhiều tiền cho mỗi tác vụ.

“Điều này giống như việc ai đó phát hành một chiếc điện thoại di động ngang bằng với iPhone, nhưng bán với giá 30 USD thay vì 1.000 USD. Điều này thật sự rất ấn tượng.”

Giám đốc điều hành của Perplexity AI, Arvind Srinivas, đã nhìn nhận sự ra mắt này dưới góc độ tác động của nó tới thị trường: “DeepSeek đã tái tạo lại phần lớn o1 mini và đã mã nguồn mở nó.” Trong một quan sát tiếp theo, ông lưu ý tốc độ tiến bộ nhanh chóng: “Thật sự khá điên rồ khi thấy lý luận được thương mại hóa nhanh đến vậy.”

Srinivas cho biết đội ngũ của ông sẽ làm việc để đưa khả năng lý luận của DeepSeek R1 vào Perplexity Pro trong tương lai.

Kiểm tra nhanh

Các nhà báo của Decrypt đã thực hiện một vài thử nghiệm nhanh để so sánh mô hình này với OpenAI o1, bắt đầu bằng một câu hỏi nổi tiếng cho những bài kiểm tra kiểu này: “Có bao nhiêu chữ R trong từ Strawberry?”

Thông thường, các mô hình gặp khó khăn trong việc đưa ra câu trả lời chính xác vì chúng không làm việc với từ ngữ—chúng làm việc với các token, các đại diện kỹ thuật số của các khái niệm.

GPT-4o thất bại, OpenAI o1 thành công—và DeepSeek R1 cũng vậy.

Tuy nhiên, o1 rất súc tích trong quá trình lý luận, trong khi DeepSeek đưa ra một quá trình lý luận dài dòng hơn. Điều thú vị là, câu trả lời của DeepSeek cảm giác giống con người hơn. Trong quá trình lý luận, mô hình có vẻ như tự nói với chính mình, sử dụng các từ lóng và từ ngữ mà máy móc ít sử dụng nhưng lại phổ biến hơn với con người.

Ví dụ, khi suy nghĩ về số lượng chữ R, mô hình tự nói: “Được rồi, để tôi tìm ra (cái này).” Nó cũng dùng từ “Hmmm,” khi đang tranh luận, và thậm chí nói những câu như “Chờ đã, không. Đợi một chút, để tôi phân tích lại.”

Mô hình cuối cùng đã đưa ra kết quả chính xác, nhưng đã mất khá nhiều thời gian để lý luận và phát ra các token. Dưới điều kiện giá cả bình thường, điều này có thể là một bất lợi; nhưng với tình hình hiện tại, nó có thể phát ra nhiều token hơn OpenAI o1 và vẫn cạnh tranh được.

Một bài kiểm tra khác để xem các mô hình có khả năng lý luận tốt như thế nào là chơi “gián điệp” và xác định thủ phạm trong một câu chuyện ngắn. Chúng tôi chọn một mẫu từ bộ dữ liệu BIG-bench trên Github. (Câu chuyện liên quan đến một chuyến đi học đến một địa điểm xa xôi và đầy tuyết, nơi học sinh và giáo viên đối mặt với một loạt những biến mất kỳ lạ và mô hình phải tìm ra ai là người theo dõi.)

Cả hai mô hình đều suy nghĩ hơn một phút. Tuy nhiên, ChatGPT đã bị lỗi trước khi giải quyết được bí ẩn:

Nhưng DeepSeek đã đưa ra câu trả lời chính xác sau khi “suy nghĩ” về nó trong 106 giây. Quá trình suy nghĩ là đúng, và mô hình thậm chí có thể tự sửa sai sau khi đưa ra các kết luận sai (nhưng vẫn hợp lý đủ).

Sự dễ dàng truy cập của các phiên bản nhỏ hơn đã đặc biệt gây ấn tượng với các nhà nghiên cứu. Để có bối cảnh, một mô hình 1,5B nhỏ đến mức bạn có thể chạy nó trên một chiếc smartphone mạnh mẽ. Và ngay cả một phiên bản định lượng của DeepSeek R1 nhỏ như vậy cũng có thể đối đầu với GPT-4o và Claude 3.5 Sonnet, theo nhà khoa học dữ liệu của Hugging Face, Vaibhav Srivastav.

Chỉ một tuần trước, SkyNove của UC Berkeley đã phát hành Sky T1, một mô hình lý luận cũng có thể cạnh tranh với OpenAI o1 preview.

Những ai quan tâm đến việc chạy mô hình này trên máy tính cá nhân có thể tải xuống từ Github hoặc Hugging Face. Người dùng có thể tải về, chạy, loại bỏ kiểm duyệt hoặc điều chỉnh nó cho các lĩnh vực chuyên môn khác bằng cách tinh chỉnh.

Hoặc nếu bạn muốn thử mô hình trực tuyến, hãy truy cập Hugging Chat hoặc Cổng Web của DeepSeek, là một sự thay thế tốt cho ChatGPT—đặc biệt là vì nó miễn phí, mã nguồn mở và là giao diện chatbot AI duy nhất có mô hình được xây dựng cho lý luận ngoài ChatGPT.

Disclaimer: Bài viết chỉ có mục đích thông tin, không phải lời khuyên đầu tư. Nhà đầu tư nên tìm hiểu kỹ trước khi ra quyết định. Chúng tôi không chịu trách nhiệm về các quyết định đầu tư của bạn. 

TIN LIÊN QUAN
CÓ THỂ BẠN QUAN TÂM
DeFAI là gì?

DeFAI là gì?

Ở thời điểm hiện tại, DeFi là một trong những trụ cột quan trọng của crypto, trong khi các AI agent đang ngày càng thu hút sự chú ý của cộng đồng.

Google hủy bỏ lời cam kết không sử dụng AI cho vũ khí và tình báo

Google hủy bỏ lời cam kết không sử dụng AI cho vũ khí và tình báo

Google đã gỡ bỏ một cam kết trong các nguyên tắc trí tuệ nhân tạo (AI) của mình, cam kết trước đây là tránh phát triển AI phục vụ cho vũ khí và giám sát. Sự thay đổi này phản ánh cách tiếp cận của công ty đối với các quan hệ đối tác an ninh quốc gia khi AI ngày càng được tích hợp vào hoạt động quân sự và tình báo.

2,5 tỷ đô la coin AI bị bán tháo khi cuộc chiến thương mại Trung-Mỹ leo thang

2,5 tỷ đô la coin AI bị bán tháo khi cuộc chiến thương mại Trung-Mỹ leo thang

Lĩnh vực tiền điện tử trí tuệ nhân tạo (AI) lao dốc vào thứ 3, giảm 8,6% trong 24 giờ qua, xóa sổ hơn 2,5 tỷ đô la giá trị vốn hóa thị trường. Cuộc bán tháo xảy ra sau khi căng thẳng giữa Mỹ và Trung Quốc leo thang, do các chính sách thuế quan quyết liệt của chính quyền Trump.

OpenAI đẩy mạnh chiến lược vào Châu Á với quan hệ đối tác Kakao trong bối cảnh đàm phán với SoftBank

OpenAI đẩy mạnh chiến lược vào Châu Á với quan hệ đối tác Kakao trong bối cảnh đàm phán với SoftBank

Kakao Corp. đã chính thức trở thành công ty Hàn Quốc đầu tiên thiết lập quan hệ đối tác chiến lược với OpenAI, mở ra một chương mới trong quá trình mở rộng của công ty nghiên cứu AI vào thị trường châu Á.

AI agent crypto chuyển sang bi quan khi vốn hóa thị trường giảm 15% trong 24 giờ

AI agent crypto chuyển sang bi quan khi vốn hóa thị trường giảm 15% trong 24 giờ

AI agent là một trong những câu chuyện được bàn luận nhiều nhất trong không gian crypto, với các dự án như VIRTUAL và AI16Z đạt mức định giá kỷ lục. Tuy nhiên, lĩnh vực này đã gặp khó khăn kể từ giữa tháng 1, khi tâm lý thay đổi và ảnh hưởng của DeepSeek tiếp tục đẩy nhanh quá trình điều chỉnh đang diễn ra.

Sam Altman thừa nhận OpenAI thua DeepSeek: “Chúng tôi đã đi sai hướng trong quá khứ”

Sam Altman thừa nhận OpenAI thua DeepSeek: “Chúng tôi đã đi sai hướng trong quá khứ”

Trong một phiên hỏi đáp trực tuyến (AMA) trên Reddit vào cuối tuần qua, Sam Altman, CEO của OpenAI, đã không ngần ngại thừa nhận công ty của mình đang gặp phải một số vấn đề nghiêm trọng. Đặc biệt, anh cho rằng OpenAI có thể đã sai khi giữ kín công nghệ trí tuệ nhân tạo (AI) của mình, một chiến lược đang gây ra những khó khăn nhất định khi đối thủ cạnh tranh lớn như DeepSeek của Trung Quốc ngày càng tiến gần hơn với các mô hình AI nguồn mở.

OpenAI ra mắt sớm o3-Mini để đáp trả DeepSeek AI – So sánh chi tiết

OpenAI ra mắt sớm o3-Mini để đáp trả DeepSeek AI – So sánh chi tiết

Vào thứ 6 vừa qua, OpenAI đã nhanh chóng củng cố vị thế của mình trên thị trường bằng việc ra mắt o3-mini, một phản ứng mạnh mẽ đối với mô hình R1 của startup Trung Quốc DeepSeek. Mô hình này đã gây chấn động ngành công nghiệp AI nhờ vào hiệu suất vượt trội và chi phí tính toán chỉ bằng một phần nhỏ so với các đối thủ.

Ý cấm chatbot AI DeepSeek của Trung Quốc trong khi Pháp, Hàn Quốc, Ireland đang tiến hành điều tra

Ý cấm chatbot AI DeepSeek của Trung Quốc trong khi Pháp, Hàn Quốc, Ireland đang tiến hành điều tra

Các cơ quan bảo vệ dữ liệu tại Ý đã yêu cầu startup AI của Trung Quốc, DeepSeek, ngừng hoạt động chatbot của mình tại quốc gia này.

ShamAIn – Thầy bói AI đầu tiên của Hàn Quốc và làn sóng bói toán công nghệ

ShamAIn – Thầy bói AI đầu tiên của Hàn Quốc và làn sóng bói toán công nghệ

Một hội trường triển lãm ở khu Insa-dong, trung tâm Seoul, có một điện thờ nhỏ vừa đủ cho một người bước vào. Bên trong, những dải ruy băng rực rỡ, chuông, bài vị tổ tiên, nến và một chiếc đệm đơn được sắp xếp tỉ mỉ.

SoftBank của Nhật Bản dành đến 25 tỷ đô la để đầu tư vào OpenAI

SoftBank của Nhật Bản dành đến 25 tỷ đô la để đầu tư vào OpenAI

Theo thông tin ban đầu vào tối thứ 4, SoftBank đang đàm phán để đầu tư trực tiếp lên đến 25 tỷ đô la vào OpenAI, qua đó giúp tập đoàn công nghệ Nhật Bản trở thành nhà đầu tư tài chính lớn nhất của công ty tạo ra ChatGPT.

Tin crypto mới nhất