آزمایشگاه Thinking Machines پلتفرم Tinker را به صورت عمومی عرضه کرده و سه قابلیت مهم شامل پشتیبانی از مدل استدلال Kimi K2، نمونهگیری سازگار با OpenAI و ورودی تصویری از طریق مدلهای زبانی بصری Qwen3-VL را اضافه کرده است.
وظیفه اصلی Tinker
Tinker یک API آموزشی است که بر روی تنظیم دقیق مدلهای زبانی بزرگ تمرکز دارد و پیچیدگیهای آموزش توزیع شده را پنهان میکند. شما میتوانید یک حلقه ساده پایتون بنویسید که بر روی یک ماشین با پردازنده اجرا شود.
دسترسی عمومی و Kimi K2
تغییر برجسته در بهروزرسانی دسامبر 2025 این است که Tinker دیگر نیاز به لیست انتظار ندارد. کاربران میتوانند اکنون مدل moonshotai/Kimi-K2-Thinking را بر روی Tinker تنظیم دقیق کنند.
نمونهگیری سازگار با OpenAI
رهاسازی جدید یک مسیر دوم که رابط تکمیل OpenAI را بازتاب میکند، اضافه کرده است.
response = openai_client.completions.create(model="tinker://0034d8c9-0a88-52a9-b2b7-bce7cb1e6fef")ورودی تصویری با Qwen3-VL
قابلیت دوم بزرگ، ورودی تصویری است. Tinker اکنون دو مدل زبانی بصری Qwen3-VL را ارائه میدهد.
model_input = tinker.ModelInput(chunks=[tinker.types.ImageChunk(data=image_data, format="png")])Qwen3-VL در مقابل DINOv2
به منظور نمایش قابلیتهای مسیر جدید بینایی، تیم Tinker مدل Qwen3-VL-235B-A22B-Instruct را به عنوان یک طبقهبند تصویر تنظیم دقیق کرده است.
نکات کلیدی
- Tinker به صورت عمومی در دسترس است و هر کسی میتواند به آن بپیوندد.
- پلتفرم از مدل استدلال Kimi K2 پیروی میکند.
- Tinker یک رابط نمونهگیری سازگار با OpenAI اضافه کرده است.
- ورودی تصویری از طریق مدلهای Qwen3-VL فعال شده است.
- Qwen3-VL 235B تنظیم شده بر روی Tinker، عملکرد قویتری در طبقهبندی تصویر نشان داده است.