چرا پایتون زبان برنامه نویسی انتخابی توسعه دهندگان هوش مصنوعی است؟

یک مطالعه جدید نشان می دهد پایتون، اسکالا و جاوا از محبوب ترین زبان های برنامه نویسی برای توسعه دهندگان هوش مصنوعی هستند

بر اساس تحقیقات جدید، پایتون به عنوان زبان برنامه نویسی مناسب برای توسعه دهندگانی که برنامه های کاربردی هوش مصنوعی تولید می کنند، ظاهر شده است.

در گزارشی از شرکت داده‌های ابری Snowflake که داده‌های استفاده از 9000 مشتری خود را تجزیه و تحلیل کرد، گفت: پایتون زبان انتخابی برای برنامه‌نویسی هوش مصنوعی است.

Snowflake گفت که استفاده از پایتون در پلتفرم Snowpark خود 571 درصد رشد داشته است که به طور قابل توجهی بیشتر از هر زبان دیگری در سال گذشته است. استفاده از زبان های دیگر نیز رشد کرد – مانند Scala (387٪ افزایش) و جاوا (131٪) – اما نه به این سرعت.

در این گزارش آمده است: «مهارت‌های پایتون برای تیم‌های توسعه‌دهنده ضروری خواهد بود، زیرا آنها به سمت هوش مصنوعی پیشرفته می‌روند.

در این گزارش آمده است که به این دلیل است که پایتون کارهای زیادی برای آن دارد. یادگیری و خواندن زبان برنامه نویسی آسان است، و توسعه دهندگان را قادر می سازد “به جای تجزیه نحو انتزاعی، بر حل مشکلات هوش مصنوعی تمرکز کنند”.

همچنین دارای اکوسیستم بزرگی از کتابخانه‌ها و چارچوب‌ها برای ساده‌سازی کارهای سخت هوش مصنوعی و همچنین جامعه فعالی از مشارکت‌کنندگان برای کمک به یادگیری و حل مسئله است.

به طور کلی، پایتون به توسعه دهندگان اجازه می دهد تا روی مشکل تمرکز کنند، نه زبان. آن‌ها می‌توانند سریع کار کنند، نمونه‌سازی و آزمایش را تسریع کنند – و بنابراین به طور کلی به عنوان تیم‌های توسعه‌دهنده به پروژه‌های پیشرفته هوش مصنوعی حمله می‌کنند.

تحقیقات Snowflake به دنبال تجزیه و تحلیل اوایل این ماه است که نشان می دهد اشتیاق برای پایتون همچنان در حال رشد است. رتبه بندی زبان برنامه نویسی Tiobe اشاره کرد که شکاف بین پایتون و بقیه بسته ها هرگز بیشتر از این نبوده است.

پایتون از بهبودهای داده های بدون ساختار پشتیبانی می کند

گزارش Snowflake همچنین نشان داد که شرکت‌ها از داده‌های بدون ساختار آنها بهره می‌برند. بیشتر داده ها – شاید تا 90٪ – بدون ساختار، به شکل فیلم، تصاویر و اسناد هستند، اما این شرکت گفت که شاهد رشد 123 درصدی پردازش داده های بدون ساختار بوده است.

در این گزارش آمده است: «این خبر خوبی برای بسیاری از کاربردها است، که کمترین آن هوش مصنوعی پیشرفته است. «داده‌های اختصاصی به مدل‌های زبان بزرگ برتری می‌دهد، بنابراین باز کردن قفل آن ۹۰ درصد کم استفاده ارزش زیادی دارد».

قابل ذکر است که این نوع داده ها با پایتون، جاوا و اسکالا پردازش می شوند.

Snowflake اعلام کرده است: “با توجه به اینکه پایتون به طور خاص زبان انتخابی برای بسیاری از توسعه‌دهندگان، مهندسان داده و دانشمندان داده است، پذیرش سریع آن نشان می‌دهد که این جریان‌های کاری داده‌های بدون ساختار فقط برای ساخت خطوط لوله داده نیستند، بلکه شامل برنامه‌های کاربردی هوش مصنوعی و مدل‌های ML نیز می‌شوند”.

Snowflake یک “انفجار LLM” را ثبت کرد

مطمئناً ساخت اپلیکیشن‌های مبتنی بر هوش مصنوعی در بالای مدل‌های زبان بزرگ (LLM) اکنون برای بسیاری از توسعه‌دهندگان اولویت است.

اسنو فلیک گفت: «انفجار LLM در حال وقوع است – احتمالاً در دفتر شما.

این شرکت گفت که در سال گذشته در جامعه توسعه دهندگان Streamlit خود، شاهد کار 20076 توسعه دهنده بر روی 33143 برنامه مبتنی بر LLM بوده است. تقریباً دو سوم توسعه دهندگان گفتند که روی پروژه های کاری کار می کنند.

در حالی که هوش مصنوعی مولد هنوز به یک فناوری فراگیر تبدیل نشده است، Snowflake گفت: «ما قطعاً شاهد تلاش‌های زیادی برای رساندن ما در اسرع وقت به آنجا هستیم» که بر علاقه شدید سازمانی به استفاده از ابزارها و برنامه‌های کاربردی هوش مصنوعی تأکید می‌کند.

کاغذ سفید مرتبط
مقاله ای از IBM در مورد چگونگی دستیابی به رشد تجارت با ابر ترکیبی، با الگوی چرخشی آبی روی جلد

یک استراتژی سفارشی برای پروژه نوسازی اپلیکیشن خود ایجاد کنید

نوع برنامه‌هایی که توسعه‌دهندگان می‌سازند نیز در حال تکامل است – Snowflake گفت که بین ماه می ۲۰۲۳ تا ژانویه ۲۰۲۴ در Streamlit، چت‌بات‌ها از ۱۸ درصد برنامه‌های LLM به ۴۶ درصد رسیده‌اند.

این به احتمال زیاد نشان دهنده تغییری در اشتهای بازار برای برنامه های LLM نیست، اما نشان می دهد که چگونه توسعه دهندگان در حال افزایش مهارت های خود هستند و می توانند برنامه های چت بات پیچیده تر بسازند.

توسعه دهندگان گفتند که نگرانی اصلی آنها هنگام ساخت برنامه های هوش مصنوعی مولد این است که آیا پاسخ LLM دقیق است – اشاره ای به موضوع مداوم توهمات هوش مصنوعی – و به دنبال آن نگرانی در مورد حفظ حریم خصوصی داده ها.

همراه با این، کسب‌وکارها نیز رویکرد فعال‌تری را برای حاکمیت داده اتخاذ می‌کنند. تعداد تگ های اعمال شده روی یک شی 72% افزایش یافته است، در حالی که تعداد اشیاء با برچسب اختصاص داده شده به طور مستقیم تقریبا 80% افزایش یافته است و تعداد اعمال پوشش یا خط مشی های دسترسی به ردیف 98% افزایش یافته است.

اما Snowflake همچنین گفت که تعداد تجمعی جستجوهایی که در برابر اشیاء محافظت شده توسط سیاست اجرا می شوند 142٪ افزایش یافته است. این امر به ویژه مهم است، زیرا نشان می دهد که شرکت ها استفاده خود از داده ها را افزایش می دهند و در عین حال استفاده مسئولانه را تضمین می کنند.

ما شاهد حکومت‌داری بیشتر و بیشتر از طریق استفاده از برچسب‌ها و سیاست‌های پوششی هستیم، اما میزان کاری که با این داده‌های کنترل شده با دقت بیشتری انجام می‌شود به سرعت در حال افزایش است.

جنیفر بلیسنت، استراتژیست اصلی داده در Snowflake، گفت: در حالی که امنیت داده ها مدت هاست تمرکز اصلی بوده است، شتاب سریع برنامه های کاربردی هوش مصنوعی این موضوع را به منصه ظهور رسانده است. پرداختن به مسائلی مانند حریم خصوصی و امنیت “آرامش ذهن را به ارمغان می آورد”.

او گفت: «هنگامی که داده ها محافظت می شوند، می توان از آنها به طور ایمن استفاده کرد.

هر یک از این گرایش‌ها به صورت جداگانه، یک نقطه داده واحد است که نشان می‌دهد سازمان‌ها در سراسر جهان چگونه با چالش‌های مختلف برخورد می‌کنند. وقتی با هم در نظر گرفته شوند، داستان بزرگ‌تری درباره نحوه مدرن‌سازی سازمان‌های CIO، CTO و CDO برای مقابله با هوش مصنوعی بیان می‌کنند. آزمایش‌ها و حل مشکلات داده‌ها – همه گام‌های لازم برای استفاده از فرصت‌های ارائه‌شده توسط هوش مصنوعی پیشرفته.»

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *