آزمایشگاه Thinking Machines پلتفرم Tinker را به صورت عمومی عرضه کرده و سه قابلیت مهم شامل پشتیبانی از مدل استدلال Kimi K2، نمونه‌گیری سازگار با OpenAI و ورودی تصویری از طریق مدل‌های زبانی بصری Qwen3-VL را اضافه کرده است.

وظیفه اصلی Tinker

Tinker یک API آموزشی است که بر روی تنظیم دقیق مدل‌های زبانی بزرگ تمرکز دارد و پیچیدگی‌های آموزش توزیع شده را پنهان می‌کند. شما می‌توانید یک حلقه ساده پایتون بنویسید که بر روی یک ماشین با پردازنده اجرا شود.

دسترسی عمومی و Kimi K2

تغییر برجسته در به‌روزرسانی دسامبر 2025 این است که Tinker دیگر نیاز به لیست انتظار ندارد. کاربران می‌توانند اکنون مدل moonshotai/Kimi-K2-Thinking را بر روی Tinker تنظیم دقیق کنند.

نمونه‌گیری سازگار با OpenAI

رهاسازی جدید یک مسیر دوم که رابط تکمیل OpenAI را بازتاب می‌کند، اضافه کرده است.

response = openai_client.completions.create(model="tinker://0034d8c9-0a88-52a9-b2b7-bce7cb1e6fef")

ورودی تصویری با Qwen3-VL

قابلیت دوم بزرگ، ورودی تصویری است. Tinker اکنون دو مدل زبانی بصری Qwen3-VL را ارائه می‌دهد.

model_input = tinker.ModelInput(chunks=[tinker.types.ImageChunk(data=image_data, format="png")])

Qwen3-VL در مقابل DINOv2

به منظور نمایش قابلیت‌های مسیر جدید بینایی، تیم Tinker مدل Qwen3-VL-235B-A22B-Instruct را به عنوان یک طبقه‌بند تصویر تنظیم دقیق کرده است.

نکات کلیدی

  1. Tinker به صورت عمومی در دسترس است و هر کسی می‌تواند به آن بپیوندد.
  2. پلتفرم از مدل استدلال Kimi K2 پیروی می‌کند.
  3. Tinker یک رابط نمونه‌گیری سازگار با OpenAI اضافه کرده است.
  4. ورودی تصویری از طریق مدل‌های Qwen3-VL فعال شده است.
  5. Qwen3-VL 235B تنظیم شده بر روی Tinker، عملکرد قوی‌تری در طبقه‌بندی تصویر نشان داده است.