راهنمای جامع مدلهای زبانی بزرگ (LLMs): از توکنها و ترنسفورمرها تا غولهای هوش مصنوعی و آینده پیش رو
مقدمه: انقلاب مدلهای زبانی بزرگ
در قلب انقلاب هوش مصنوعی، ستارهای نوظهور به نام «مدلهای زبانی بزرگ» (LLMs) در حال بازنویسی قواعد بازی است. این غولهای محاسباتی، با تغذیه از میلیاردها کلمه و جمله، مرز میان زبان انسان و ماشین را کمرنگ کردهاند. برخلاف نسلهای ابتدایی که در چارچوبی محدود و وظیفهمحور عمل میکردند، LLMها اکنون توانایی درک، یادگیری و تولید زبان را با چنان دقت و غنایی دارند که خروجیشان گاه از یک نویسنده انسانی قابل تمایز نیست.
از تولید خودکار مقالههای خبری و پستهای شبکههای اجتماعی گرفته تا نوشتن کد و ساخت چتباتهایی با واکنشهای زنده و واقعگرایانه، کاربردهای این مدلها گسترهای وسیع و رو به رشد دارد. اگر تا کنون با ChatGPT گپ زدهاید و از انسجام گفتارش حیرت کردهاید، عملاً در حال تجربه یکی از درخشانترین دستاوردهای این فناوری بودهاید. در این مقاله، با نگاهی موشکافانه به لایههای پنهان این تحول عظیم خواهیم پرداخت؛ از ریشههای نظری آن گرفته تا بازیگران اصلی این عرصه و چشمانداز آیندهای که شاید دیگر چندان هم تخیلی نباشد.
مدلهای تولید متن به زبان ساده؟
در پشتصحنه هوشمندی خیرهکننده مدلهای زبانی، الگوریتمهایی نهفتهاند که زبان انسان را نه با کلمات، بلکه با “توکنها” (کوچکترین واحدهای قابل پردازش) تحلیل و بازسازی میکنند. این توکنها میتوانند یک واژه کامل باشند یا حتی تکهای از یک کلمه، مثل قطعاتی از پازل که در کنار هم، تصویری از معنا را شکل میدهند.
مدلهای تولید متن، با استفاده از این واحدهای زبانی، خروجیهایی خلق میکنند که گاه آنقدر طبیعی و رواناند که از نوشتار انسانی قابل تفکیک نیستند. برای سنجش حجم متن در این سیستمها، شمارش توکنها راهکاری کلیدیست؛ مثلاً یک متن ۱۰۰ توکنی تقریباً معادل ۷۵ واژه است. این سنجش نهتنها برای مدیریت بهینه دادهها اهمیت دارد، بلکه به فهم محدودیتهای فنی مدلهایی مثل GPT یا Claude نیز کمک میکند؛ چرا که هر مدل، سقف مشخصی برای تعداد توکنهای ورودی و خروجی دارد. درک این سازوکار، همانند شناخت زبان مادری این ماشینهای سخنگوست — زبانی که زیر پوست کلمات جریان دارد.
فرآیند توکنیزه کردن (Tokenization): شکستن متن به قطعات قابل فهم
توکنیزه کردن، فرآیند شکستن متن به توکنها، یک گام حیاتی در آمادهسازی دادهها برای وظایف پردازش زبان طبیعی (NLP) است. روشهای مختلفی برای توکنیزه کردن وجود دارد، از جمله Byte-Pair Encoding (BPE)، WordPiece و SentencePiece. هر یک از این روشها مزایای منحصر به فرد خود را داشته و برای موارد استفاده خاصی مناسب هستند. BPE به دلیل کارایی آن در مدیریت طیف گستردهای از واژگان و در عین حال قابل مدیریت نگه داشتن تعداد توکنها، معمولاً مورد استفاده قرار میگیرد.
BPE با در نظر گرفتن متن به عنوان دنبالهای از کاراکترهای منفرد شروع میشود. با گذشت زمان، کاراکترهایی را که اغلب با هم ظاهر میشوند، در واحدهای منفرد یا توکنها ترکیب میکند. برای درک بهتر این موضوع، کلمه “apple” را در نظر بگیرید. در ابتدا، BPE ممکن است آن را به صورت a، p، p، l و e ببیند. اما پس از مشاهده اینکه p اغلب بعد از a و قبل از l در مجموعه داده ظاهر میشود، ممکن است آنها را ترکیب کرده و “appl” را به عنوان یک توکن منفرد در موارد آینده در نظر بگیرد. این رویکرد به LLMها کمک میکند تا کلمات یا عبارات را تشخیص داده و تولید کنند، حتی اگر در دادههای آموزشی رایج نباشند، و این باعث سازگاری و تطبیقپذیری بیشتر مدلها میشود.
اصول ریاضی در پس LLMها: از بردارها تا معماری ترنسفورمر
درک عملکرد LLMها نیازمند درک اصول ریاضی زیربنایی است که این سیستمها را قدرت میبخشد. اگرچه محاسبات میتوانند پیچیده باشند، اما میتوانیم عناصر اصلی را برای ارائه درکی شهودی از نحوه عملکرد این مدلها ساده کنیم.
- بازنماییهای برداری (Vector Representations): جوهره عددی زبان در حوزه NLP، کلمات فقط نمادهای الفبایی نیستند. آنها میتوانند توکنیزه شده و سپس به شکل عددی، معروف به بردار، نمایش داده شوند. این بردارها آرایههای چندبعدی از اعداد هستند که روابط معنایی و نحوی را ثبت میکنند. ایجاد بردارهای کلمه، که به عنوان تعبیهسازی کلمه (word embeddings) نیز شناخته میشوند، بر الگوهای پیچیده درون زبان تکیه دارد. در طول یک مرحله آموزشی فشرده، مدلها برای شناسایی و یادگیری این الگوها طراحی میشوند و اطمینان حاصل میکنند که کلمات با معانی مشابه در یک فضای چندبعدی نزدیک به یکدیگر نگاشت میشوند (همانطور که در شکل فرضی ۲-۱ از متن اصلی نشان داده شده است، جایی که “Virtue” و “Moral” یا “Walked” و “Walking” به هم نزدیک هستند). این نزدیکی فضایی در فضای تعبیه، ابزاری قدرتمند در وظایف مختلف NLP میشود و مدلها را قادر میسازد تا زمینه، معناشناسی و شبکه پیچیده روابطی را که زبان را تشکیل میدهند، درک کنند.
- معماری ترنسفورمر (Transformer Architecture): ارکستراسیون روابط متنی هنگامی که جملهای مانند “The cat sat on the mat” داریم، هر کلمه در این جمله به نمایش برداری عددی خود تبدیل میشود. معماری ترنسفورمر این بردارهای کلمه را گرفته و روابط آنها را – هم در ساختار (نحو) و هم در معنا (معناشناسی) – درک میکند. یک ترنسفورمر فقط کلمات را به صورت مجزا نمیبیند؛ به “cat” نگاه میکند و میداند که در این جمله به طور خاص با “sat” و “mat” مرتبط است. انواع مختلفی از ترنسفورمرها وجود دارد؛ برای مثال، معماری BERT از یک رمزگذار (encoder) برای دادههای ورودی استفاده میکند، در حالی که GPT دارای یک رمزگشا (decoder) برای خروجی است. یکی از ویژگیهای قابل توجه ترنسفورمرها، توانایی آنها در درک معانی متنی ظریف کلمات است. مکانیسم خود-توجهی (self-attention) در ترنسفورمرها به هر کلمه در یک جمله اجازه میدهد تا به تمام کلمات دیگر نگاه کند تا زمینه خود را بهتر درک کند. با در نظر گرفتن کل جمله، ترنسفورمرها میتوانند نقش و معنای هر کلمه را با دقت بیشتری تعیین کنند و تفاسیر خود را از نظر متنی غنیتر سازند.
- تولید متن احتمالی (Probabilistic Text Generation): مکانیسم تصمیمگیری پس از اینکه ترنسفورمر زمینه متن داده شده را درک کرد، به تولید متن جدید، با هدایت مفهوم احتمال، میپردازد. به عبارت ریاضی، مدل محاسبه میکند که هر کلمه ممکن بعدی با چه احتمالی دنباله فعلی کلمات را دنبال میکند و محتملترین را انتخاب میکند. با تکرار این فرآیند، مدل یک رشته متن منسجم و مرتبط با زمینه را به عنوان خروجی خود تولید میکند.
آموزش LLMها: پیشآموزش و تنظیم دقیق قابلیت اطمینان LLMها، به ویژه در زمینه کسبوکار، بسیار مهم است. بخش قابل توجهی از دستیابی به این قابلیت اطمینان در مراحل پیشآموزش (pretraining) و تنظیم دقیق (fine-tuning) توسعه LLM نهفته است. در ابتدا، مدلها در مرحله پیشآموزش بر روی مجموعه دادههای گسترده آموزش داده میشوند و درک وسیعی از زبان به دست میآورند. متعاقباً، در مرحله تنظیم دقیق، مدلها برای وظایف خاص تطبیق داده میشوند و تواناییهای خود را برای ارائه خروجیهای دقیق و قابل اعتماد برای کاربردهای تخصصی تقویت میکنند.
بسترهای تاریخی: ظهور معماریهای ترنسفورمر
مدلهای زبانی مانند ChatGPT (GPT مخفف generative pretrained transformer است) به طور جادویی ظهور نکردند. آنها نتیجه سالها پیشرفت در زمینه NLP هستند، با شتاب ویژه از اواخر دهه ۲۰۱۰. در قلب این پیشرفت، معرفی معماریهای ترنسفورمر قرار دارد که در مقاله پیشگامانه “Attention Is All You Need” توسط تیم Google Brain شرح داده شد. پیشرفت واقعی معماریهای ترنسفورمر، مفهوم “توجه” (attention) بود. مدلهای سنتی متن را به صورت متوالی پردازش میکردند که درک آنها از ساختار زبان، به ویژه در فواصل طولانی متن، را محدود میکرد. توجه با اجازه دادن به مدلها برای ارتباط مستقیم کلمات دور از هم، صرف نظر از موقعیت آنها در متن، این وضعیت را متحول کرد. این نه تنها درک متن مدلها را به طور قابل توجهی بهبود بخشید، بلکه آنها را بسیار کارآمدتر نیز کرد. این مکانیسم توجه نقش حیاتی در گسترش ظرفیت مدلها برای تشخیص وابستگیهای دوربرد در متن ایفا کرد و برای تولید خروجیهایی که نه تنها از نظر متنی دقیق و روان، بلکه در طولانیمدت منسجم بودند، بسیار مهم بود.
جالب است بدانید که به گفته اندرو اِنگ، پیشگام و مربی هوش مصنوعی، بسیاری از تحقیقات اولیه NLP، از جمله کار بنیادی روی ترنسفورمرها، بودجه قابل توجهی از آژانسهای اطلاعاتی نظامی ایالات متحده دریافت کردند. علاقه شدید آنها به ابزارهایی مانند ترجمه ماشینی و تشخیص گفتار، عمدتاً برای اهداف اطلاعاتی، ناخواسته راه را برای پیشرفتهایی هموار کرد که فراتر از صرف ترجمه بود.
منابع محاسباتی و چالشهای داده آموزش LLMها به منابع محاسباتی گستردهای نیاز دارد. این مدلها با مقادیر زیادی داده، از ترابایت تا پتابایت، از جمله محتوای اینترنت، مقالات دانشگاهی، کتابها و مجموعه دادههای تخصصیتر تغذیه میشوند. با این حال، توجه به این نکته مهم است که دادههای مورد استفاده برای آموزش LLMها میتوانند سوگیریهای ذاتی از منابع خود را به همراه داشته باشند. بنابراین، کاربران باید هنگام استفاده از این مدلها احتیاط کنند و در حالت ایدهآل از نظارت انسانی برای اطمینان از کاربردهای هوش مصنوعی مسئولانه و اخلاقی استفاده کنند.
بازیگران اصلی در عرصه LLM ها
چندین شرکت و سازمان در خط مقدم توسعه LLM قرار دارند و هر کدام با رویکردها و مدلهای خاص خود به این حوزه کمک میکنند.
- OpenAI و سری GPT: OpenAI که با مأموریت اطمینان از اینکه هوش مصنوعی عمومی به نفع همه بشریت باشد تأسیس شده، اخیراً در خط مقدم انقلاب هوش مصنوعی قرار داشته است. یکی از برجستهترین دستاوردهای آنها سری مدلهای GPT بوده است که مرزهای آنچه LLMها میتوانند به دست آورند را به طور قابل توجهی بازتعریف کرده است.
- GPT اولیه و GPT-2: مدل اصلی GPT نمایشی قانعکننده از پتانسیل معماریهای مبتنی بر ترنسفورمر بود. رونمایی از GPT-2 با پیشبینی و احتیاط توأم بود. OpenAI به دلیل نگرانی در مورد سوء استفاده احتمالی، در ابتدا در انتشار آن تردید داشت. با این حال، زمانی که OpenAI تصمیم گرفت پروژه را به صورت منبع باز منتشر کند، به کسبوکارها و محققان اجازه داد تا از این مدلهای از پیش آموزشدیده به عنوان بلوکهای ساختمانی استفاده کنند و دسترسی به قابلیتهای سطح بالای NLP را دموکراتیزه کرد.
- GPT-3: پس از GPT-2، OpenAI تصمیم گرفت بر روی انتشار مدلهای پولی و منبع بسته تمرکز کند. ورود GPT-3 گامی عظیم در پیشرفت LLMها بود و توجه رسانهای قابل توجهی را به خود جلب کرد. این مدل میتوانست متنی چنان متقاعدکننده تولید کند که اغلب از محتوای نوشته شده توسط انسان قابل تشخیص نبود.
- GPT-3.5-turbo و ChatGPT: با سرمایهگذاری قابل توجه مایکروسافت، OpenAI مدل GPT-3.5-turbo را معرفی کرد که نسخه بهینهسازی شدهای از مدل قبلی خود بود و کارایی و مقرون به صرفه بودن بهتری را ارائه میداد. ChatGPT، که برای برتری در زمینههای مکالمه تنظیم دقیق شده بود، امکان گفتگوی طبیعی و معنادار بین انسان و ماشین را فراهم کرد. فرآیند آموزش ChatGPT شامل سه مرحله اصلی است: جمعآوری دادههای نمایشی توسط برچسبزنهای انسانی، آموزش یک خطمشی نظارت شده با استفاده از یادگیری نظارت شده بر روی مدل از پیش آموزشدیده GPT-3، و جمعآوری دادههای مقایسهای و استفاده از یادگیری تقویتی (به ویژه الگوریتم PPO) برای بهینهسازی خطمشی نظارت شده (همانطور که در شکل فرضی ۲-۴ متن اصلی نشان داده شده است). این فرآیند به همراستاسازی رفتار مدل ChatGPT با قصد انسان کمک کرد. طبق یک مطالعه UBS، تا ژانویه ۲۰۲۳، ChatGPT با جمعآوری ۱۰۰ میلیون کاربر فعال، به سریعترین برنامه کاربردی مصرفکننده در تاریخ اینترنت تبدیل شد.
- GPT-4 و GPT-4o: در سال ۲۰۲۴، OpenAI مدل GPT-4 را منتشر کرد که در درک پرسوجوهای پیچیده و تولید متن مرتبط و منسجم برتری دارد. به عنوان مثال، GPT-4 با کسب نمره ۲۹۸ از ۴۰۰ در آزمون وکالت، در صدک ۹۰ قرار گرفت. GPT-4 از رویکرد “ترکیبی از متخصصان” (mixture-of-experts) استفاده میکند. در ۱۳ می ۲۰۲۴، OpenAI مدل GPT-4o را معرفی کرد، یک مدل پیشرفته با قابلیت پردازش و استدلال همزمان بر روی ورودیهای متنی، صوتی و تصویری. این مدل عملکرد بهبود یافتهای، به ویژه در درک تصویر و صدا، ارائه میدهد و به دلیل توانایی پردازش هر سه حالت در یک شبکه عصبی، سریعتر و مقرون به صرفهتر از نسخههای قبلی خود است. همچنین GPT-4 با قابلیت Vision (GPT-4V) که در سپتامبر ۲۰۲۳ معرفی شد، به کاربران امکان میدهد تا به GPT-4 دستور دهند تصاویر را در کنار متن تجزیه و تحلیل کند.
- Google و Gemini: پس از اینکه گوگل به دلیل استفاده از ChatGPT سهم بازار جستجوی خود را از دست داد، در ابتدا Bard را در ۲۱ مارس ۲۰۲۳ منتشر کرد. Bard در ابتدا کیفیت پاسخهای LLM مشابه ChatGPT را ارائه نمیداد. گوگل به مرور زمان ویژگیهای اضافی از جمله تولید کد، هوش مصنوعی بصری، جستجوی بیدرنگ و صدا را به Bard اضافه کرد و آن را از نظر کیفیت به ChatGPT نزدیکتر کرد. در ۱۴ مارس ۲۰۲۳، گوگل PaLM API را منتشر کرد و به توسعهدهندگان اجازه داد به آن در پلتفرم ابری گوگل دسترسی پیدا کنند. گوگل در فوریه ۲۰۲۴ Bard را به Gemini برای نسخه ۱.۵ خود تغییر نام داد و شروع به کسب نتایجی مشابه GPT-4 کرد. گوگل همچنین دو مدل منبع باز کوچکتر مبتنی بر همان معماری Gemini منتشر کرد.
- Meta و Llama: رویکرد متا به مدلهای زبانی با سایر رقبا در صنعت تفاوت قابل توجهی دارد. با انتشار متوالی مدلهای منبع باز Llama، Llama 2 و Llama 3، متا قصد دارد اکوسیستم توسعه هوش مصنوعی فراگیرتر و مشارکتیتری را ترویج دهد. ماهیت منبع باز Llama 2 و Llama 3 پیامدهای قابل توجهی برای صنعت فناوری گستردهتر، به ویژه برای شرکتهای بزرگ دارد. شفافیت و روحیه مشارکتی، نوآوری سریع را تشویق میکند، زیرا مشکلات و آسیبپذیریها میتوانند به سرعت توسط جامعه جهانی توسعهدهندگان شناسایی و برطرف شوند. این مدلها در نسخههای ۷، ۸ و ۷۰ میلیارد پارامتری در AWS، Google Cloud، Hugging Face و سایر پلتفرمها موجود هستند. اگرچه این رویکرد منبع باز، زمینه بازی را هموار میکند و به توسعهدهندگان کوچکتر نیز فرصت نوآوری میدهد ، اما خطرات بالقوهای نیز به همراه دارد، زیرا میتواند به بازیگران مخرب اجازه دهد از این فناوری برای اهداف مضر سوء استفاده کنند.
- Mistral AI: Mistral 7B، محصول استارتآپ فرانسوی Mistral AI، با ۷.۳ میلیارد پارامتر خود به عنوان یک نیروگاه در حوزه هوش مصنوعی مولد ظاهر شده است. کلید کارایی آن، پیادهسازی “توجه پنجره لغزان” (sliding window attention) است، تکنیکی که تحت مجوز منبع باز Apache منتشر شده است. بسیاری از مهندسان هوش مصنوعی بر روی این مدل به عنوان پایه، تنظیم دقیق انجام دادهاند، از جمله مدل چشمگیر Zephr 7b بتا. همچنین Mixtral 8x7b، یک مدل ترکیبی از متخصصان (مشابه معماری GPT-4) وجود دارد که به نتایجی مشابه GPT-3.5-turbo دست مییابد.
- Anthropic و Claude: Claude 2 که در ۱۱ ژوئیه ۲۰۲۳ منتشر شد، با رویکرد پیشگامانه “هوش مصنوعی مبتنی بر قانون اساسی” (Constitutional AI) خود برای ایمنی و همراستایی هوش مصنوعی – آموزش مدل با استفاده از فهرستی از قوانین یا ارزشها – خود را از سایر LLMهای برجسته متمایز میکند. یک پیشرفت قابل توجه در Claude 2، پنجره زمینه (context window) گسترشیافته آن به ۱۰۰,۰۰۰ توکن و همچنین قابلیت بارگذاری فایلها بود. پنجره زمینه به مقدار متن یا دادهای اشاره دارد که مدل میتواند هنگام تولید پاسخ به طور فعال در نظر بگیرد. این پیشرفت اشتیاق قابل توجهی را از سوی مهندسان هوش مصنوعی برانگیخت، زیرا راههایی را برای موارد استفاده جدید و پیچیدهتر باز کرد. نسل بعدی Claude شامل Opus، اولین مدلی بود که از نظر هوش با GPT-4 رقابت میکرد، و همچنین Haiku، یک مدل کوچکتر که بسیار سریع است.
سختافزار و بهینهسازیها: توانمندسازی LLMها
ظهور LLMها تقاضای فزایندهای را برای صنعت سختافزار، به ویژه شرکتهای متخصص در واحدهای پردازش گرافیکی (GPU) ایجاد کرده است. انویدیا (NVIDIA) تقریباً مترادف با GPUهای با کارایی بالا شده است که برای آموزش LLMها ضروری هستند. تقاضا برای GPUهای قدرتمند و کارآمد به شدت افزایش یافته است زیرا شرکتها در تلاش برای ساخت مدلهای بزرگتر و پیچیدهتر هستند. GPUها همچنین باید برای وظایف ذاتی یادگیری ماشین، مانند عملیات تانسور، تنظیم دقیق شوند. تانسورها، در زمینه یادگیری ماشین، آرایههای چندبعدی از دادهها هستند و عملیات روی آنها برای محاسبات شبکه عصبی اساسی است. این تاکید بر قابلیتهای تخصصی منجر به ظهور سختافزارهای سفارشی مانند GPUهای H100 Tensor Core انویدیا شده است که به طور صریح برای تسریع بارهای کاری یادگیری ماشین ساخته شدهاند. این افزایش تقاضا، نوآوری فراتر از GPUها را نیز برانگیخته است و شرکتها اکنون بر روی ایجاد سختافزار هوش مصنوعی اختصاصی، مانند واحدهای پردازش تانسور (TPU) گوگل، تمرکز کردهاند.
یکی از جنبههای متحولکننده مدلهای منبع باز، پتانسیل کوانتیزاسیون (quantization) و استفاده از LoRA (low-rank approximations) است. این تکنیکها به توسعهدهندگان اجازه میدهند تا مدلها را در سختافزارهای کوچکتر جای دهند. کوانتیزاسیون به کاهش دقت عددی پارامترهای مدل کمک میکند و در نتیجه اندازه کلی مدل را بدون افت قابل توجه در عملکرد کاهش میدهد. در همین حال، LoRA به بهینهسازی معماری شبکه کمک میکند و اجرای آن را بر روی سختافزار مصرفی کارآمدتر میسازد. چنین بهینهسازیهایی، تنظیم دقیق این LLMها را بر روی سختافزار مصرفی به طور فزایندهای امکانپذیر میکند.
مقایسه مدلها و روندهای آینده
در زمان نگارش این متن، بازار LLMها تحت سلطه OpenAI با مدل پیشرفته GPT-4 آن قرار دارد که به طور گستردهای پیشتاز محسوب میشود. نزدیکترین رقیب Anthropic است و هیجان گستردهای در مورد پتانسیل مدلهای منبع باز کوچکتر مانند Llama و Mistral، به ویژه با توجه به تنظیم دقیق، وجود دارد. اگرچه مفسران انتظار دارند OpenAI در آینده به ارائه مدلهای جهانی ادامه دهد، اما با بهتر شدن مدلهای منبع باز در انجام وظایف بیشتر، ممکن است بارهای کاری هوش مصنوعی به سمت مدلهای محلی تنظیم دقیق شده تغییر جهت دهند. با پیشرفت در عملکرد مدل و کوانتیزاسیون، ممکن است روزی بتوان LLMها را بر روی تلفن همراه یا سایر دستگاهها اجرا کرد. در حال حاضر، بهترین راه برای درک اینکه مدلها در چه چیزی خوب هستند، اجرای یکسان یک پرامپت (دستور) در چندین مدل و مقایسه پاسخها است.
ملاحظات مهم: حریم خصوصی دادهها و اخلاق
در حالی که این مدلها امکانات گستردهای را ارائه میدهند، حریم خصوصی دادهها یک نگرانی حیاتی باقی میماند. اگر این مدلها از دادههای شما برای بازآموزی یا تنظیم دقیق استفاده میکنند، احتیاط کنید و از وارد کردن اطلاعات حساس خودداری نمایید. همانطور که قبلاً اشاره شد، سوگیریهای موجود در دادههای آموزشی نیز میتواند منجر به خروجیهای سوگیرانه شود، بنابراین نظارت انسانی و کاربرد مسئولانه و اخلاقی هوش مصنوعی بسیار مهم است.
نتیجهگیری: آیندهای هیجانانگیز در پیش است
سفر LLMها از آغاز تا وضعیت پیشرفته فعلیشان، داستانی از نوآوری بیوقفه، همکاری و رقابت شدید است. با ادامه تکامل این مدلها، احتمالاً به بخشهای جداییناپذیرتری از زندگی روزمره ما تبدیل خواهند شد و نحوه تعامل ما با فناوری و حتی با یکدیگر را تغییر خواهند داد. با درک زمینه تاریخی و قابلیتهای این مدلها، میتوانیم ابزارهای موجود برای کاربردهای مختلف، از مهندسی پرامپت گرفته تا توسعه دستیاران مجازی هوشمند را بهتر درک کنیم. با ورود به دنیای مهندسی پرامپت و تکنیکهای پیشرفتهتر، بینشهای هیجانانگیز و روشهای عملی در انتظار شما هستند تا پتانسیل واقعی هوش مصنوعی مولد را باز کنید.
