آزمایشگاه Thinking Machines API آموزش Tinker را به مرحله استفاده عمومی رسانده است و با افزودن سه قابلیت مهم شامل مدل استدلال Kimi K2، نمونه‌گیری سازگار با OpenAI و ورودی تصویر از طریق مدل‌های زبانی بینایی Qwen3-VL، امکانات آن را گسترش داده است. برای مهندسان هوش مصنوعی، Tinker به یک راه عملی برای تنظیم مدل‌های پیشرفته بدون نیاز به ساخت زیرساخت‌های پیچیده آموزشی تبدیل شده است.

اقبال عمومی و مدل Kimi K2 Thinking

تغییر مهم این به‌روزرسانی این است که اکنون Tinker نیازی به لیست انتظار ندارد و همه می‌توانند ثبت‌نام کرده و از مدل‌ها و قیمت‌های جاری استفاده کنند. کاربران می‌توانند مدل moonshotai/Kimi-K2-Thinking را روی Tinker تنظیم کنند. این مدل برای زنجیره‌های طولانی استدلال طراحی شده و در حال حاضر بزرگ‌ترین مدل در لیست مدل‌های Tinker است.

نمونه‌گیری سازگار با OpenAI در حین آموزش

Tinker قبلاً رابط نمونه‌گیری بومی داشته، اما اکنون قابلیت‌هایی اضافه شده که رابط تکمیلی OpenAI را منعکس می‌کند. این امکان را فراهم می‌کند که کاربران بتوانند نمونه‌ها را از طریق یک URI اشاره‌کنند.

ورودی تصویری با Qwen3-VL در Tinker

قابلیت دوم، ورودی تصویر است. Tinker دو مدل زبانی بینایی Qwen3-VL را ارائه می‌دهد. برای ارسال تصویر به مدل، از ModelInput استفاده کنید که شامل ImageChunk است.

Qwen3-VL در برابر DINOv2 در دسته‌بندی تصاویر

تیم Tinker برای نشان دادن مسیر جدید تصویری، Qwen3-VL-235B-A22B-Instruct را به عنوان یک دسته‌بند تصویر تنظیم کردند. آنها از چهار مجموعه‌داده استاندارد استفاده کردند و عملکرد را با مدل پایه DINOv2 مقایسه کردند.

نکات کلیدی

  1. Tinker به صورت عمومی در دسترس است و به کمک آن می‌توان مدل‌های زبان‌بزرگ را بدون مدیریت توزیع آموزش داد.
  2. پلتفرم از مدل استدلال Kimi K2 پشتیبانی می‌کند و آن را برای تنظیم مدل‌های استدلال در Tinker معرفی می‌کند.
  3. توسط این پلتفرم به راحتی می‌توان از رابط‌های سازگار با OpenAI استفاده کرد.
  4. ورودی تصویری از طریق مدل‌های Qwen3-VL فعال شده و توسعه‌دهندگان می‌توانند با استفاده از API این ورودی‌ها را ترکیب کنند.
  5. Qwen3-VL 235B توانسته در دسته‌بندی تصویر نسبت به مدل پایه DINOv2 عملکرد بهتری نشان دهد.