آزمایشگاه Thinking Machines API آموزش Tinker را به مرحله استفاده عمومی رسانده است و با افزودن سه قابلیت مهم شامل مدل استدلال Kimi K2، نمونهگیری سازگار با OpenAI و ورودی تصویر از طریق مدلهای زبانی بینایی Qwen3-VL، امکانات آن را گسترش داده است. برای مهندسان هوش مصنوعی، Tinker به یک راه عملی برای تنظیم مدلهای پیشرفته بدون نیاز به ساخت زیرساختهای پیچیده آموزشی تبدیل شده است.
اقبال عمومی و مدل Kimi K2 Thinking
تغییر مهم این بهروزرسانی این است که اکنون Tinker نیازی به لیست انتظار ندارد و همه میتوانند ثبتنام کرده و از مدلها و قیمتهای جاری استفاده کنند. کاربران میتوانند مدل moonshotai/Kimi-K2-Thinking را روی Tinker تنظیم کنند. این مدل برای زنجیرههای طولانی استدلال طراحی شده و در حال حاضر بزرگترین مدل در لیست مدلهای Tinker است.
نمونهگیری سازگار با OpenAI در حین آموزش
Tinker قبلاً رابط نمونهگیری بومی داشته، اما اکنون قابلیتهایی اضافه شده که رابط تکمیلی OpenAI را منعکس میکند. این امکان را فراهم میکند که کاربران بتوانند نمونهها را از طریق یک URI اشارهکنند.
ورودی تصویری با Qwen3-VL در Tinker
قابلیت دوم، ورودی تصویر است. Tinker دو مدل زبانی بینایی Qwen3-VL را ارائه میدهد. برای ارسال تصویر به مدل، از ModelInput استفاده کنید که شامل ImageChunk است.
Qwen3-VL در برابر DINOv2 در دستهبندی تصاویر
تیم Tinker برای نشان دادن مسیر جدید تصویری، Qwen3-VL-235B-A22B-Instruct را به عنوان یک دستهبند تصویر تنظیم کردند. آنها از چهار مجموعهداده استاندارد استفاده کردند و عملکرد را با مدل پایه DINOv2 مقایسه کردند.
نکات کلیدی
- Tinker به صورت عمومی در دسترس است و به کمک آن میتوان مدلهای زبانبزرگ را بدون مدیریت توزیع آموزش داد.
- پلتفرم از مدل استدلال Kimi K2 پشتیبانی میکند و آن را برای تنظیم مدلهای استدلال در Tinker معرفی میکند.
- توسط این پلتفرم به راحتی میتوان از رابطهای سازگار با OpenAI استفاده کرد.
- ورودی تصویری از طریق مدلهای Qwen3-VL فعال شده و توسعهدهندگان میتوانند با استفاده از API این ورودیها را ترکیب کنند.
- Qwen3-VL 235B توانسته در دستهبندی تصویر نسبت به مدل پایه DINOv2 عملکرد بهتری نشان دهد.