یک مطالعه جدید نشان می دهد پایتون، اسکالا و جاوا از محبوب ترین زبان های برنامه نویسی برای توسعه دهندگان هوش مصنوعی هستند
بر اساس تحقیقات جدید، پایتون به عنوان زبان برنامه نویسی مناسب برای توسعه دهندگانی که برنامه های کاربردی هوش مصنوعی تولید می کنند، ظاهر شده است.
در گزارشی از شرکت دادههای ابری Snowflake که دادههای استفاده از 9000 مشتری خود را تجزیه و تحلیل کرد، گفت: پایتون زبان انتخابی برای برنامهنویسی هوش مصنوعی است.
Snowflake گفت که استفاده از پایتون در پلتفرم Snowpark خود 571 درصد رشد داشته است که به طور قابل توجهی بیشتر از هر زبان دیگری در سال گذشته است. استفاده از زبان های دیگر نیز رشد کرد – مانند Scala (387٪ افزایش) و جاوا (131٪) – اما نه به این سرعت.
در این گزارش آمده است: «مهارتهای پایتون برای تیمهای توسعهدهنده ضروری خواهد بود، زیرا آنها به سمت هوش مصنوعی پیشرفته میروند.
در این گزارش آمده است که به این دلیل است که پایتون کارهای زیادی برای آن دارد. یادگیری و خواندن زبان برنامه نویسی آسان است، و توسعه دهندگان را قادر می سازد “به جای تجزیه نحو انتزاعی، بر حل مشکلات هوش مصنوعی تمرکز کنند”.
همچنین دارای اکوسیستم بزرگی از کتابخانهها و چارچوبها برای سادهسازی کارهای سخت هوش مصنوعی و همچنین جامعه فعالی از مشارکتکنندگان برای کمک به یادگیری و حل مسئله است.
به طور کلی، پایتون به توسعه دهندگان اجازه می دهد تا روی مشکل تمرکز کنند، نه زبان. آنها میتوانند سریع کار کنند، نمونهسازی و آزمایش را تسریع کنند – و بنابراین به طور کلی به عنوان تیمهای توسعهدهنده به پروژههای پیشرفته هوش مصنوعی حمله میکنند.
تحقیقات Snowflake به دنبال تجزیه و تحلیل اوایل این ماه است که نشان می دهد اشتیاق برای پایتون همچنان در حال رشد است. رتبه بندی زبان برنامه نویسی Tiobe اشاره کرد که شکاف بین پایتون و بقیه بسته ها هرگز بیشتر از این نبوده است.
پایتون از بهبودهای داده های بدون ساختار پشتیبانی می کند
گزارش Snowflake همچنین نشان داد که شرکتها از دادههای بدون ساختار آنها بهره میبرند. بیشتر داده ها – شاید تا 90٪ – بدون ساختار، به شکل فیلم، تصاویر و اسناد هستند، اما این شرکت گفت که شاهد رشد 123 درصدی پردازش داده های بدون ساختار بوده است.
در این گزارش آمده است: «این خبر خوبی برای بسیاری از کاربردها است، که کمترین آن هوش مصنوعی پیشرفته است. «دادههای اختصاصی به مدلهای زبان بزرگ برتری میدهد، بنابراین باز کردن قفل آن ۹۰ درصد کم استفاده ارزش زیادی دارد».
قابل ذکر است که این نوع داده ها با پایتون، جاوا و اسکالا پردازش می شوند.
Snowflake اعلام کرده است: “با توجه به اینکه پایتون به طور خاص زبان انتخابی برای بسیاری از توسعهدهندگان، مهندسان داده و دانشمندان داده است، پذیرش سریع آن نشان میدهد که این جریانهای کاری دادههای بدون ساختار فقط برای ساخت خطوط لوله داده نیستند، بلکه شامل برنامههای کاربردی هوش مصنوعی و مدلهای ML نیز میشوند”.
Snowflake یک “انفجار LLM” را ثبت کرد
مطمئناً ساخت اپلیکیشنهای مبتنی بر هوش مصنوعی در بالای مدلهای زبان بزرگ (LLM) اکنون برای بسیاری از توسعهدهندگان اولویت است.
اسنو فلیک گفت: «انفجار LLM در حال وقوع است – احتمالاً در دفتر شما.
این شرکت گفت که در سال گذشته در جامعه توسعه دهندگان Streamlit خود، شاهد کار 20076 توسعه دهنده بر روی 33143 برنامه مبتنی بر LLM بوده است. تقریباً دو سوم توسعه دهندگان گفتند که روی پروژه های کاری کار می کنند.
در حالی که هوش مصنوعی مولد هنوز به یک فناوری فراگیر تبدیل نشده است، Snowflake گفت: «ما قطعاً شاهد تلاشهای زیادی برای رساندن ما در اسرع وقت به آنجا هستیم» که بر علاقه شدید سازمانی به استفاده از ابزارها و برنامههای کاربردی هوش مصنوعی تأکید میکند.
کاغذ سفید مرتبط
مقاله ای از IBM در مورد چگونگی دستیابی به رشد تجارت با ابر ترکیبی، با الگوی چرخشی آبی روی جلد
یک استراتژی سفارشی برای پروژه نوسازی اپلیکیشن خود ایجاد کنید
نوع برنامههایی که توسعهدهندگان میسازند نیز در حال تکامل است – Snowflake گفت که بین ماه می ۲۰۲۳ تا ژانویه ۲۰۲۴ در Streamlit، چتباتها از ۱۸ درصد برنامههای LLM به ۴۶ درصد رسیدهاند.
این به احتمال زیاد نشان دهنده تغییری در اشتهای بازار برای برنامه های LLM نیست، اما نشان می دهد که چگونه توسعه دهندگان در حال افزایش مهارت های خود هستند و می توانند برنامه های چت بات پیچیده تر بسازند.
توسعه دهندگان گفتند که نگرانی اصلی آنها هنگام ساخت برنامه های هوش مصنوعی مولد این است که آیا پاسخ LLM دقیق است – اشاره ای به موضوع مداوم توهمات هوش مصنوعی – و به دنبال آن نگرانی در مورد حفظ حریم خصوصی داده ها.
همراه با این، کسبوکارها نیز رویکرد فعالتری را برای حاکمیت داده اتخاذ میکنند. تعداد تگ های اعمال شده روی یک شی 72% افزایش یافته است، در حالی که تعداد اشیاء با برچسب اختصاص داده شده به طور مستقیم تقریبا 80% افزایش یافته است و تعداد اعمال پوشش یا خط مشی های دسترسی به ردیف 98% افزایش یافته است.
اما Snowflake همچنین گفت که تعداد تجمعی جستجوهایی که در برابر اشیاء محافظت شده توسط سیاست اجرا می شوند 142٪ افزایش یافته است. این امر به ویژه مهم است، زیرا نشان می دهد که شرکت ها استفاده خود از داده ها را افزایش می دهند و در عین حال استفاده مسئولانه را تضمین می کنند.
ما شاهد حکومتداری بیشتر و بیشتر از طریق استفاده از برچسبها و سیاستهای پوششی هستیم، اما میزان کاری که با این دادههای کنترل شده با دقت بیشتری انجام میشود به سرعت در حال افزایش است.
جنیفر بلیسنت، استراتژیست اصلی داده در Snowflake، گفت: در حالی که امنیت داده ها مدت هاست تمرکز اصلی بوده است، شتاب سریع برنامه های کاربردی هوش مصنوعی این موضوع را به منصه ظهور رسانده است. پرداختن به مسائلی مانند حریم خصوصی و امنیت “آرامش ذهن را به ارمغان می آورد”.
او گفت: «هنگامی که داده ها محافظت می شوند، می توان از آنها به طور ایمن استفاده کرد.
هر یک از این گرایشها به صورت جداگانه، یک نقطه داده واحد است که نشان میدهد سازمانها در سراسر جهان چگونه با چالشهای مختلف برخورد میکنند. وقتی با هم در نظر گرفته شوند، داستان بزرگتری درباره نحوه مدرنسازی سازمانهای CIO، CTO و CDO برای مقابله با هوش مصنوعی بیان میکنند. آزمایشها و حل مشکلات دادهها – همه گامهای لازم برای استفاده از فرصتهای ارائهشده توسط هوش مصنوعی پیشرفته.»