فیوتاک: فصل دوم اپیزود چهاردهم

آینده هوش مصنوعی

گفتگوی دکتر مهدی محمدی، رئیس انجمن مدیریت فناوری و نوآوری ایران با دکتر امیر ناظمی، پژوهشگر ایرانی حوزه سیاست‌گذاری فناوری، معاون وزارت ارتباطات و فناوری اطلاعات و رئیس سازمان فناوری اطلاعات ایران، درباره بررسی آینده هوش مصنوعی و تأثیرات گسترده آن بر کسب و کار

تصویری از گفتگوی دکتر محمدی با دکتر امیر ناظمی در فیوتاک

معرفی

یکی از محصولات پلتفرم futureof.ir سلسه گفتگوهایی با خبرگان تکنولوژی درباره ی آینده و فناوری‌ است. در این اپیزود از سلسه گفتگوهایی درباره‌ی هوش مصنوعی و آینده، دکتر مهدی محمدی، رئیس انجمن مدیریت فناوری و نوآوری ایران با دکتر امیر ناظمی، پژوهشگر ایرانی حوزه سیاست‌گذاری فناوری، معاون وزارت ارتباطات و فناوری اطلاعات و رئیس سازمان فناوری اطلاعات ایران، درباره بررسی آینده هوش مصنوعی و تأثیرات گسترده آن بر کسب و کار و جامعه صحبت کرده‌اند. 

این گفتگو با حمایت ویژه انجمن مدیریت فناوری و نوآوری ایران و با تهیه‌کنندگی صابر خسروی تهیه و تولید شده است.

ویدئو
پادکست

به زودی

متن گفتگو

دکتر مهدی محمدی: سلام، من مهدی محمدی هستم و به برنامه فیوچراو خوش آمدید. در این برنامه، ما درباره آینده و فناوری گفتگو می‌کنیم. در ادامه سلسله برنامه‌هایمان درباره آینده هوش مصنوعی، امروز افتخار داریم با یک محقق و آینده‌پژوه برجسته در حوزه فناوری و نوآوری گفتگو کنیم. مهمان ما امروز، دکتر امیر ناظمی است، آینده‌پژوهی که معمولاً ابعاد فناوری و نوآوری را با جنبه‌های جامعه‌شناختی و سیاسی پیوند می‌دهد. قصد داریم امروز درباره سناریوهای آینده هوش مصنوعی از دیدگاه یک آینده‌پژوه و تأثیرات آن بر کسب و کار و جامعه صحبت کنیم. سلام امیر عزیز.

دکتر امیر ناظمی: سلام مهدی جان، ممنونم. امیدوارم شما هم حالتان خوب باشد. سلام خدمت همه بینندگان و شنوندگان این برنامه.

دکتر مهدی محمدی: خوشحالم که پس از مدتی دوباره شما را می‌بینم. واقعیت این است که ما در این برنامه تاکنون حدود هفت تا ده گفتگو با افراد مختلف از جنبه‌های اقتصادی، اجتماعی و فناوری داشته‌ایم. امروز می‌خواهیم نگاهی ساختاریافته‌تر به موضوع هوش مصنوعی از منظر سناریوپردازی داشته باشیم. می‌خواهیم بدانیم پیشران‌های کلیدی که احتمالاً این آینده را شکل می‌دهند چیست و عدم قطعیت‌های اصلی که می‌تواند فضای سناریوی ما را شکل دهد، کدامند.

به نظر من، برای ترسیم هر سناریویی برای آینده هوش مصنوعی، باید چهار ذینفع اصلی را بررسی کنیم: شرکت‌های بزرگ فناوری، دولت‌ها، مردم و صنایع وابسته به هوش مصنوعی.

با در نظر گرفتن این چهار عنصر، می‌خواهم نظر شما را درباره سناریوهای محتمل و پیشران‌های مهم بدانم. کدام پیشران‌ها بیشترین عدم قطعیت را دارند و چگونه می‌توانیم بر اساس آن‌ها فضای سناریوی خود را بسازیم؟

دکتر امیر ناظمی: به نظر می‌رسد ابتدا باید مشخص کنیم چرا سناریو و دانستن آینده برای ما مهم است. زمانی بود که ما به عنوان بشر علاقه زیادی به پیش‌بینی دقیق و قطعی آینده داشتیم و به سراغ مدل‌های پیش‌بینی می‌رفتیم. اما با افزایش عدم قطعیت‌ها و پیچیدگی در سیستم‌های مختلف انسانی، اجتماعی و اقتصادی، امکان پیش‌بینی دقیق کاهش یافت. تعداد عوامل تأثیرگذار آنقدر زیاد شد که دیگر نمی‌توانستیم دقیقاً پیش‌بینی کنیم فردا چه اتفاقی خواهد افتاد.

به همین دلیل، به جای پیش‌بینی، به سمت در نظر گرفتن آینده‌های متنوع و محتمل حرکت کردیم. اگر بخواهم به زبانی دیگر بگویم، می‌توانم به پژوهش تتلاک اشاره کنم که در مورد سیستم‌های سیاسی انجام شده است. این پژوهش نشان داد که پیش‌بینی‌های متخصصان تفاوت معناداری با پیش‌بینی‌های تصادفی نداشته است.

امروزه، فاکتور اصلی نه پیش‌بینی آینده، بلکه آمادگی برای آینده‌های مختلف است. هر کسی که بتواند خود را برای تعداد بیشتری از آینده‌های ممکن آماده کند، شانس بیشتری برای موفقیت خواهد داشت. به همین دلیل، اگر بتوانیم نقاط حدی آینده را شناسایی کنیم و کل آینده را به سه یا چهار سناریو محدود کنیم، می‌توانیم آمادگی بهتری برای مواجهه با آینده داشته باشیم.

مزیت این رویکرد در این است که با در نظر گرفتن سناریوهای مختلف، ما برای طیف وسیعی از آینده‌های ممکن آمادگی پیدا می‌کنیم. به عنوان مثال، اگر آینده‌های محتمل را به شکل یک مربع در نظر بگیریم و ما تمام زوایای اصلی آن را بررسی کرده باشیم، در واقع برای کل فضای ممکن آماده شده‌ایم. این رویکرد اهمیت زیادی دارد، زیرا در بسیاری از موارد، شرکت‌ها ممکن است صرفاً برای یک آینده خاص که تصور می‌کنند رخ خواهد داد، آماده شوند و سایر احتمالات را نادیده بگیرند.

همانطور که شما اشاره کردید، تقسیم‌بندی چهارگانه بازیگران بسیار جذاب است. به نظر می‌رسد در سناریوهای مختلف، این بازیگران قدرت یکسانی ندارند. ممکن است در یک سناریو، قدرت دست یکی از این بازیگران باشد و در سناریوی دیگر، دست دیگری. این موضوع برای شرکت‌های استارتاپی که در حال طراحی محصولات خود هستند، اهمیت زیادی دارد.

به عنوان مثال، ممکن است ما فرض کنیم که یک شرکت بزرگ ارائه‌دهنده سرویس هوش مصنوعی مانند OpenAI به وجود می‌آید، رشد می‌کند و به ما API می‌دهد. اما ممکن است این اتفاق نیفتد. بنابراین، ما با فرض‌های مختلف، مدل‌های کسب و کار خود را طراحی می‌کنیم.

حال می‌خواهم به سؤال اصلی بپردازم: این آینده چگونه ساخته می‌شود؟ به نظر می‌رسد که حوزه هوش مصنوعی را می‌توانیم با بسیاری از حوزه‌های مربوط به فناوری اطلاعات در سال‌های گذشته متفاوت در نظر بگیریم. در هوش مصنوعی، علاوه بر تکنولوژی، ما باید وزن زیادی برای منابع نیز قائل باشیم.

تکنولوژی‌های ما را می‌توان به دو دسته تقسیم کرد: تکنولوژی‌های سخت‌افزاری و تکنولوژی‌های نرم‌افزاری. در بخش سخت‌افزار، می‌توانیم به شرکت‌هایی مانند NVIDIA اشاره کنیم که در زمینه پردازنده‌ها پیشرفت قابل توجهی داشته‌اند. در بخش نرم‌افزار، مدل‌های هوش مصنوعی قرار دارند که زیرساخت اولیه را فراهم می‌کنند.

بخش دوم، منابع هستند که شامل دو عنصر اصلی می‌شوند: محتوا و کاربران. ما برای داشتن مدل‌های بهتر در هوش مصنوعی، به حجم زیادی از داده‌ها نیاز داریم که هم در یادگیری و هم در آزمون به ما کمک می‌کند. علاوه بر این، کاربران نقش مهمی در شکل‌دهی به جهت‌گیری‌های تکنولوژی دارند.

همانطور که به اصل معروف Kranzberg اشاره کردید، تکنولوژی نه مثبت است، نه منفی و نه حتی خنثی. این اصل بسیار مهمی است که در اصول شش‌گانه Kranzberg مطرح شده است. واقعیت این است که تکنولوژی ظرفیت‌های مشخصی برای خوب یا بد بودن دارد و این خوب یا بد بودن را چرخه‌ای از بازخوردهایی که با کاربران به وجود می‌آید، تعیین می‌کند.

به عنوان مثال، در حوزه موتورهای جستجو، علاوه بر دسترسی به داده، نیاز به کاربرانی داریم که از یک حجم حداقلی یا یک حد بحرانی بالاتر باشند. چرا که یک موتور جستجوی خوب مانند Google، بخش زیادی از داده‌های مورد نیازش برای ارائه بهترین نتایج جستجو، از رفتار کاربران به دست می‌آید. مثلاً اینکه آیا کاربران صفحه‌ای را که در نتایج اول جستجو نمایش داده شده باز کرده‌اند یا نه، و اگر باز کرده‌اند چه مدت در آن صفحه مانده‌اند.

امروزه، وقتی به الگوریتم‌های مربوط به موتورهای جستجو نگاه می‌کنیم، متوجه می‌شویم که حدود 50 درصد از فاکتورهای مورد استفاده، فاکتورهای رفتاری هستند. این بدان معناست که نیمی از عواملی که یک موتور جستجو استفاده می‌کند، به جامعه کاربران خود مربوط می‌شود. به همین دلیل، ایده ایجاد یک موتور جستجوی بومی فارسی‌زبان، بسیار ساده‌انگارانه است و تنها از کسی که با تکنولوژی آشنایی ندارد، چنین ایده‌ای برمی‌آید.

پروژه‌هایی که تحت عنوان “موتور جستجوی ملی” تعریف می‌شوند، از همین منظر بی‌معنا هستند. اگر قرار بود این کار به صورت منطقی انجام شود، باید به این می‌اندیشیدیم که چگونه می‌توانیم منابع بهتری ایجاد کنیم، چگونه می‌توانیم سطح تولید محتوای فارسی را افزایش دهیم، و چگونه می‌توانیم دسترسی به منابعی مانند کتاب‌های دارای حقوق مالکیت فکری را ایجاد کنیم، به گونه‌ای که هم حقوق مالکیت حفظ شود و هم این منابع در موتورهای جستجو قابل استفاده باشند.

دکتر مهدی محمدی: در لایه تکنولوژی، به نظر می‌رسد که وضعیت تغییر کرده است. من خودم در سال 2018 مقاله‌ای نوشتم درباره آینده هوش مصنوعی، و در آن زمان یک دوقطبی بین آمریکا و چین می‌دیدم. اما اکنون، پس از پنج یا شش سال، به نظر می‌رسد که ما با یک تک‌قطبی آمریکایی در لایه تکنولوژی مواجه هستیم.

هم در لایه زیرساخت، شرکت‌هایی مانند NVIDIA و سایر تولیدکنندگان آمریکایی با فاصله زیادی در حال تولید GPU و زیرساخت‌های لازم برای هوش مصنوعی هستند. همچنین در لایه مدل‌های زبانی بزرگ (Large Language Models) و ALMs، به نظر می‌رسد که این تکنولوژی‌ها توسط غول‌های فناوری نسل قبل، مانند Google، Amazon، Apple و Microsoft توسعه داده شده‌اند.

لایه تکنولوژی به شدت به نوعی انحصار رسیده است. بنابراین، احتمالاً کل بازی ما به لایه بعدی، یعنی لایه محتوا، منتقل می‌شود. جایی که ما محتوای محلی داریم – صدا، متن و تصویر – و همچنین مردمی با ذائقه محلی. اگر اینگونه به بازی نگاه کنیم، احتمالاً سناریوها تا حدود زیادی روشن است و عدم قطعیت عجیبی دیده نمی‌شود. اما چه چیزی این وضعیت را نامطمئن می‌کند یا عدم قطعیت ایجاد می‌کند؟

دکتر امیر ناظمی: به نظر من، دو عدم قطعیت اصلی داریم که سناریوهای ما را شکل می‌دهند. اولین عدم قطعیت این است که آیا رشد تکنولوژی که ما درباره‌اش صحبت می‌کنیم، این رشد انفجاری و نمایی که در حال وقوع است، آیا توسعه هوش مصنوعی در سال‌های آینده بیشتر متکی به رشد انفجاری در حوزه تکنولوژی‌های سخت‌افزاری خواهد بود یا خیر؟

همین الان، اگر به بازار سهام شرکت‌های پردازنده نگاه کنیم، می‌بینیم که NVIDIA رشدی 100 برابری داشته است. شاید در بازار محصولات فیزیکی، ما محصولی را نمی‌شناسیم که توانسته باشد در زمانی به این کوتاهی چنین رشدی داشته باشد. حتی در دوران بحران نفتی 1973، رشد قیمت نفت 4 برابر بود، اما امروز وقتی درباره NVIDIA و چند شرکت دیگر صحبت می‌کنیم، می‌بینیم که این رشد بسیار عجیب و فراتر از تمام رکوردهای تاریخی در بورس‌ها بوده است.

سؤال اساسی این است که محدوده رشد هوش مصنوعی کجاست و در چه نقطه‌ای این تکنولوژی با محدودیت مواجه می‌شود. برای روشن‌تر شدن موضوع، مثالی می‌زنم. در بسیاری موارد، تکنولوژی‌ها به یک جزء خاص وابسته می‌مانند و رشدشان منوط به آن جزء می‌شود، در حالی که سایر اجزای تکنولوژی پیشرفت کرده‌اند. مانند زمانی که همه آماده سفر هستند و تنها منتظر یکی از اعضای گروه هستند.

گاهی اوقات، ما حتی این عوامل محدودکننده را به درستی شناسایی نمی‌کنیم. مثال معروفی در این زمینه، توسعه لپ‌تاپ است. برای تبدیل کامپیوترهای بزرگ به دستگاه‌های قابل حمل، انواع مختلفی از تکنولوژی‌ها مورد نیاز بود. اما آخرین عنصری که باید اضافه می‌شد، باتری بود. نمونه‌های اولیه لپ‌تاپ‌ها را می‌بینیم که مشکل اصلی‌شان عدم وجود باتری بود و باید به برق متصل می‌شدند. به همین دلیل، تمایل چندانی برای تولید آن‌ها وجود نداشت، زیرا منطقی نبود و همچنان نیاز به اتصال به برق داشتند.

این سؤال در مورد هوش مصنوعی نیز مطرح است. باید بدانیم که محدودیت اصلی کجاست، جایی که رقابت اصلی شکل می‌گیرد و اگر آن سقف برداشته شود، شاهد رشد انفجاری خواهیم بود. در پاسخ به این سؤال، دو دیدگاه می‌تواند وجود داشته باشد. یک دیدگاه معتقد است که محدودیت در حوزه سخت‌افزار و پردازنده‌هاست. ظرفیت پایین فعلی نسبت به نیاز موجود باعث شده این اتفاق بیفتد و رشد شرکت‌های تولیدکننده مانند NVIDIA ناشی از همین واقعیت است. این دیدگاه مدافعان حوزه سخت‌افزار است.

از طرف دیگر، مدافعان حوزه نرم‌افزار معتقدند مشکل اصلی در حوزه نرم‌افزار و انبوهی از نیازهایی است که برای ورود به عرصه هوش مصنوعی وجود دارد. به عنوان مثال، در مورد مدل‌های زبانی بزرگ (LLM)، ما از مجموعه‌ای از زیرتکنولوژی‌های مرتبط صحبت می‌کنیم. اینکه کتابخانه‌ها و اصطلاح‌نامه‌ها چگونه باشند، انواع الگوریتم‌هایی که قبلاً روی یک زبان کار شده، استاپ‌وردها، الگوریتم‌های ریشه‌یابی کلمات و غیره.

این یک دوگانه و عدم قطعیت اول است. عدم قطعیت دوم که می‌توان درباره‌اش صحبت کرد این است که آیا اهمیت منابعی که گفتیم وجود دارد – محتوا و کاربران – به اهمیت کلیدی تبدیل می‌شود یا خیر.

این سؤال از این جهت مهم است که اگر فرض کنیم دسترسی به تکنولوژی برای تمام شرکت‌ها کم و بیش یکسان باشد و مزیت در آنجا تعریف نشود، همه نیاز به گروه‌هایی از تولیدکنندگان، توسعه‌دهندگان و محققان دارند. این منابع انسانی کالای کمیابی نیستند و همه می‌توانند با سرمایه‌گذاری بیشتر آن‌ها را جذب کنند.

اگر اهمیت کاربر و داده زیاد باشد، یک بازیگر قدیمی مانند گوگل دست بالا را خواهد داشت، زیرا هیچ کس دیگری نمی‌تواند با آن حجم از داده و دسترسی به کاربر رقابت کند. در این صورت، بازی به سمت بازیگران قدیمی مانند گوگل، متا و مایکروسافت می‌رود که این دو منبع اصلی را به وفور دارند.

اما اگر اهمیت این منابع در مقابل تکنولوژی کاهش یابد، یعنی تکنولوژی به حدی رشد کند که نیاز به حجم زیادی از داده کاهش یابد، شرایط متفاوت خواهد بود. هر چه رشد تکنولوژی ما کاهش یابد، نیاز به داده‌های بیشتر افزایش می‌یابد.

به نوعی می‌توان گفت که این دو عامل جبران‌کننده یکدیگر هستند. شما یا با داده، توسعه هوش مصنوعی خود را جبران می‌کنید، یا با الگوریتم‌ها و تکنولوژی‌های ویژه و خاصی که در اختیار دارید. هر چقدر نیاز ما به یکی از این عوامل کمتر یا بیشتر شود، عدم قطعیت دوم را شکل می‌دهد. این دو عدم قطعیت با یکدیگر چهار سناریو برای ما می‌سازند که می‌توانیم درباره هر کدام از این چهار سناریو بحث کنیم و موقعیت خود را در آن مشخص کنیم.

دکتر مهدی محمدی: بله، درست است. به نظر می‌رسد محور دوم که شما درباره‌اش صحبت کردید، یعنی محور محتوا و کاربر، دو مؤلفه دارد. یک مؤلفه این است که چقدر اهمیت پیدا می‌کند بر اساس پیشرفت تکنولوژی، و مؤلفه مهم دیگر این است که چقدر وابستگی هوش مصنوعی به مدل‌های محلی و داده‌های محلی زیاد و کم می‌شود. بر اساس میزان حضور و ورود داده‌های زبانی فارسی در فضای وب و شبکه‌های اجتماعی، احتمالاً مدل‌های زبانی در حال حاضر دسترسی‌هایی به داده‌های فارسی دارند. اما آیا این به اندازه کافی برای یادگیری همان هوش مصنوعی که با قدرت بیشتری روی زبان انگلیسی کار می‌کند، کفایت می‌کند؟

این موضوع به نیازهای محلی و داده‌های محلی در مقابل نیازها و داده‌های جهانی اشاره دارد. اگرچه در دنیای پست‌مدرن، این تفکیک شاید خیلی روشن و دقیق نباشد، اما هنوز هم بسیاری از موارد استفاده و کاربردها در فضا، زمان و مکان محلی معنا پیدا می‌کنند.

دکتر امیر ناظمی: این موضوع قطعاً جزئی از آن عدم قطعیت‌های کلیدی است. به طور کلی، هر چقدر وزن تکنولوژی نسبت به منابع افزایش پیدا کند، اهمیت بازارهای محلی کمتر می‌شود. برعکس، هر چقدر وزن محتوایی که به زبان فارسی وجود دارد و کاربران فارسی‌زبان بیشتر باشد، اهمیت بازارهای محلی افزایش می‌یابد.

پس می‌توان گفت که اگر تکنولوژی‌ها خیلی رشد پیدا کنند، سرمایه‌گذاری روی یک بازار محلی ممکن است یک اشتباه استراتژیک باشد. 

دکتر محمدی: حال بیایید درباره سناریوها صحبت کنیم. سناریوی اول را شما توضیح دهید و من نظرم را خواهم گفت.

دکتر امیر ناظمی: سناریوی اول حالتی را در نظر می‌گیرد که رشد اصلی در حوزه تکنولوژی‌های نرم‌افزاری اتفاق افتاده است. یعنی مزیت اصلی را سخت‌افزار نمی‌سازد، بلکه نرم‌افزار می‌سازد. از طرف دیگر، منابع هم اهمیت چندانی ندارند. به عنوان مثال، مدل‌های زبانی جبران‌کننده کمبود منابع هستند. در این سناریو، تکنولوژی‌ها آنقدر رشد پیدا می‌کنند که حتی با مجموعه‌ای از داده‌های اندک هم می‌توانند آموزش ببینند و سطح درک متقابل‌شان را افزایش دهند.

این سناریو شباهت زیادی به آنچه در سال‌های گذشته با ظهور استارتاپ‌های رشد سریع مانند گوگل شاهد بودیم، دارد. در آن زمان، منابع اولیه نقش چندان مهمی نداشتند و بازیگران جدید می‌توانستند وارد بازار شوند و به سرعت رشد کنند. در این سناریو، احتمالاً شاهد شکل‌گیری استارتاپ‌هایی خواهیم بود که لزوماً پیشینه‌ای در دسترسی به داده یا سابقه شرکت‌های بزرگ را ندارند.

مثال خوبی که می‌توان ذکر کرد، OpenAI است که به عنوان یک تازه‌وارد، بدون پیشینه قبلی و با تکیه بر قدرت تکنولوژی خود، توانست وارد بازار شود. در این سناریو، نیازی به تغییر در سخت‌افزار نیست، زیرا تولیدکنندگان پردازنده برای همه تولید می‌کنند. همچنین، نیاز چندانی به داده‌های خاص و فراتر از دسترسی عمومی نیست. بنابراین، این شرکت‌های جدید می‌توانند محصول خود را توسعه دهند و حتی با غول‌هایی مانند گوگل و متا رقابت کنند.

این سناریو معمولاً مورد توجه اکوسیستم‌های استارتاپی است. آنها تصور می‌کنند که یک زمینه بازی بزرگ وجود دارد و تنها نیاز به ایده و توانمندی تکنولوژیک است، نه منابع دیگر. آنها معتقدند که می‌توانند به سرعت به یک غول بازار، یونیکورن و سپس دکاکورن تبدیل شوند.

این اولین سناریویی است که بررسی می‌کنیم، زیرا احتمالاً در ذهن بسیاری از مخاطبان ما وجود دارد و خود را برای آن آماده کرده‌اند. من این سناریو را “نوآمدگان” نامگذاری کرده‌ام. این فضایی است که پس از سال 2007 و با ظهور تلفن‌های هوشمند شاهد آن بودیم، جایی که یک زمینه بازی بزرگ از نظر زیرساخت فراهم شد و منجر به ظهور بازیگران بزرگ جهانی شد.

دکتر مهدی محمدی: این سناریو با توجه به تجربه تاریخی، می‌تواند یک سناریوی محتمل باشد. اگرچه آینده لزوماً تکرار گذشته نیست، اما اگر به صورت اکتشافی به آن نگاه کنیم، این احتمال وجود دارد. آنچه در حال حاضر در مورد OpenAI و سایر ارائه‌دهندگان خدمات هوش مصنوعی می‌بینیم، تقریباً همین روند را نشان می‌دهد.

دکتر امیر ناظمی: البته نمی‌توان گفت که این سناریو بسیار محتمل‌تر از بقیه است، زیرا در سناریوهای دیگر نیز رگه‌هایی از واقعیت امروز را می‌بینیم. این موضوع باعث می‌شود که همه سناریوها باورپذیر باشند و در سطح برابری قرار گیرند.

در این سناریو، فرض ما این است که استارتاپ‌های بزرگی به وجود می‌آیند که می‌توانند خدمات جهانی ارائه دهند. در سال‌های آینده باید شاهد شکل‌گیری بازیگران جدیدی باشیم، همانطور که زمانی در حوزه فناوری اطلاعات، شبکه‌های اجتماعی مهم نبودند، اما بعداً فیسبوک ظهور کرد و به متا تبدیل شد.

اگر چنین استارتاپ‌هایی وجود داشته باشند، آنها به ارائه‌دهندگان خدمات هوش مصنوعی تبدیل می‌شوند. به عبارت دیگر، “AI as a Service” به وجود می‌آید. یعنی ما شرکت‌های بزرگی خواهیم داشت که در زمینه هوش مصنوعی فعالیت می‌کنند، اما آیا محصول آنها یک محصول عمومی است؟ اگر بخواهیم هوش مصنوعی را در حوزه‌های مختلف مانند یادگیری، لجستیک یا بازاریابی به کار ببریم، هر حوزه تخصصی نیاز به کاربردپذیری خاص خود دارد. بنابراین، این شرکت‌ها نمی‌توانند تمام این خدمات را به تنهایی ارائه دهند.

با توجه به اینکه این استارتاپ‌ها پیشینه خاصی ندارند و مزیت اصلی آنها در بخش نرم‌افزاری است، احتمالاً شروع به ارائه یک سری API‌ها یا سرویس‌هایی به بازیگران میانجی می‌کنند. در واقع، ما یک سطح بالاتر داریم که ارائه‌دهنده سرویس هوش مصنوعی است و یک سطح میانی که از این تکنولوژی‌ها استفاده می‌کند تا محصولات سفارشی‌شده را در حوزه‌های مشخص ارائه دهد.

دکتر مهدی محمدی: در سناریوی اول، وقتی درباره استارتاپ‌های غیرجهانی یا لایه پایین‌تر صحبت می‌کنیم، آنها بیشتر به شخصی‌سازی و سفارشی‌سازی می‌پردازند. مثلاً برای یک حوزه صنعتی مشخص یا برای یک ذائقه محلی خاص.

دکتر امیر ناظمی: دقیقاً. بسیاری از استارتاپ‌های ایرانی که در حال برنامه‌ریزی هستند، خود را در این فضا می‌بینند. فرض آنها این است که چنین شرایطی به وجود خواهد آمد و آنها می‌توانند به یک ارائه‌دهنده خدمات تخصصی در یک حوزه خاص تبدیل شوند. مثلاً استفاده از سرویس هوش مصنوعی برای ارائه مشاوره‌های حقوقی یا خدمات بهداشت و سلامت.

دکتر مهدی محمدی: در این سناریو، به نظر می‌رسد که نقش دولت‌های محلی و حتی قوانین بین‌المللی تا حدودی کمرنگ می‌شود. آیا فرض بر این است که دولت‌های محلی محدودیت چندانی برای استفاده از این مدل‌های زبانی یا API‌ها ایجاد نمی‌کنند؟

دکتر امیر ناظمی: بله، دقیقاً. اما این نه به دلیل اینکه دولت‌ها خودخواسته این کار را می‌کنند، بلکه به این دلیل است که در این سناریو، فرض بر رشد انفجاری در حوزه نرم‌افزار است، بدون نیاز به منابع یا سخت‌افزار خاصی. در چنین شرایطی، دولت‌ها و حتی جامعه جهانی از این پیشرفت عقب می‌مانند و تکنولوژی بسیار سریع‌تر از توانایی آنها برای واکنش رشد می‌کند.

در سناریوی دوم، دسترسی به سخت‌افزار مزیت رقابتی ایجاد نمی‌کند و شرکت‌های تولیدکننده پردازنده به صورت خنثی و بی‌طرفانه محصولات خود را ارائه می‌دهند. اما منابع و محتوا اهمیت بیشتری پیدا می‌کنند، به خصوص برای پوشش بازارهای محلی و زبان‌های مختلف.

در چنین شرایطی که هم فناوری نرم‌افزاری و هم منابع اهمیت دارند، باید ببینیم منابع در دست چه کسانی است. در بازار امروز، می‌توان گفت که عمدتاً در اختیار شرکت‌های بزرگی مانند گوگل، متا، مایکروسافت و آمازون است. هر کدام از این شرکت‌ها به دلایل مختلف به حجم عظیمی از داده‌ها دسترسی دارند.

البته نباید اپل را هم فراموش کرد که اگرچه شاید حجم داده‌اش به اندازه آن چهار شرکت نباشد، اما مشتریان وفاداری دارد و داده‌های ارزشمندی از رفتار کاربرانش در اختیار دارد.

. در این سناریو، ما شاهد ظهور استارتاپ‌هایی خواهیم بود که در حوزه فناوری نرم‌افزاری رشد می‌کنند. معمولاً شرکت‌های بزرگ در مواجهه با تکنولوژی‌های جدید عقب می‌مانند، زیرا استارتاپ‌ها معمولاً توسط افرادی تأسیس می‌شوند که همزمان با ظهور تکنولوژی جدید، در دانشگاه‌ها روی آن کار می‌کنند و سریعاً شرکت خود را تأسیس می‌کنند.

در حالی که شرکت‌های بزرگ زمان زیادی نیاز دارند تا به تکنولوژی‌های جدید برسند، استارتاپ‌ها می‌توانند با چابکی بیشتری عمل کنند. شرکت‌های بزرگ ابتدا باید درک کنند که تکنولوژی پیشرفته چیست، سپس مصوبه هیئت مدیره را دریافت کنند، آن را در برنامه سالیانه خود بگنجانند و نیروی انسانی جذب کنند. این فرآیند زمان‌بر باعث می‌شود که آنها چابکی لازم را نداشته باشند.

ما شاهد ظهور استارتاپ‌هایی هستیم که با تکنولوژی‌های پیشرفته رشد می‌کنند، اما به سقف محدودیت منابع می‌رسند. آنها نه کاربران کافی برای دریافت بازخورد و بهبود تکنولوژی خود دارند و نه به منابع محتوایی قابل توجهی دسترسی دارند. این محتوا می‌تواند شامل اطلاعات تخصصی در حوزه‌های مختلف یا محتوای مربوط به جوامع گوناگون باشد.

در چنین شرایطی، شرکت‌های بزرگ مانند گوگل شروع به خرید و ادغام این استارتاپ‌های کوچک می‌کنند. ما شاهد رشد ستاره‌هایی هستیم که به سرعت توسط شرکت‌های بزرگ خریداری می‌شوند و به بخشی از سیستم بزرگ‌تر تبدیل می‌شوند. محصولات آنها با محصولات قبلی ترکیب شده و ارائه می‌شوند.

این الگو در حال حاضر بسیار رایج است. ما شاهد هستیم که انواع مختلفی از موتورهای هوش مصنوعی توسط اکوسیستم‌های بزرگ جذب شده و پس از آن توسعه می‌یابند. بسیاری از برندهایی که امروز می‌شناسیم، نتیجه این فرآیند هستند.

دکتر مهدی محمدی: درست است. به نظر می‌رسد که سناریوی دوم در حال حاضر محتمل‌تر است، مگر اینکه تغییرات قابل توجهی در بازار رخ دهد. ما می‌بینیم که شرکت‌هایی مانند مایکروسافت و آمازون در حال خرید بزرگ‌ترین توسعه‌دهندگان و دستیارهای هوش مصنوعی هستند. در این سناریو، آیا فضایی برای شکل‌گیری استارتاپ‌های محلی وجود دارد؟ زیرا وقتی محتوای محلی اهمیت پیدا می‌کند، قاعدتاً باید امکان ظهور برای استارتاپ‌های محلی نیز فراهم شود.در ایران، ما شاهد رشد دیجی‌کالا یا اسنپ بودیم که مشابه آمازون و اوبر هستند. اما آیا در سناریوهای جدید، امکان شکل‌گیری استارتاپ‌های ایرانی با قدرت مشابه وجود دارد؟

دکتر امیر ناظمی: به نظر من، وقتی شرکت‌های بزرگ وارد این حوزه می‌شوند، بازی تغییر می‌کند. از دیدگاه من، پاسخ منفی است، اما با ملاحظاتی. سناریوی اول می‌توانست 10 یا 20 سال دیگر اتفاق بیفتد، جایی که ما شاهد ظهور شرکت‌های جدید در لیست 500 شرکت برتر فورچون باشیم، مانند آنچه با گوگل یا متا اتفاق افتاد. اما سناریوی دوم می‌گوید که ما شاهد ظهور نام‌های جدید نخواهیم بود، بلکه تأثیرات آنها به طور غیرمستقیم و از طریق محصولات شرکت‌های بزرگ موجود خواهد بود.

دلایل متفاوتی وجود دارد. آیا گوگل هیچ‌گاه نیاز داشته با دولت ما توافقی داشته باشد تا در حوزه زبان فارسی رشد کند؟ به نظر می‌رسد این فاکتور برای آن‌ها چندان مهم نبوده است. این مسئله نه تنها برای ما فارسی‌زبانان، بلکه برای همه زبان‌ها صدق می‌کند. حتی اگر تحریم هم نبودیم، تفاوت چندانی نمی‌کرد. گوگل بر روی استفاده کاربران تمرکز کرده و دیگر نیازی به توافق‌های خاص ندارد.

اگر به تک‌تک این شرکت‌ها نگاه کنیم، می‌بینیم که هر کدام یک سری محصولات استاندارد ارائه می‌دهند. مثلاً، ورد مایکروسافت را در نظر بگیرید. افرادی که هم‌سن و سال ما هستند، به یاد دارند که قبل از ورد، ما در ایران نرم‌افزاری به نام زرنگار داشتیم که همه مطبوعات و ناشران برای استفاده از فونت فارسی از آن استفاده می‌کردند.

البته نباید فراموش کنیم که افرادی مانند روزبه پورنادر نقش مهمی در توسعه یونیکد برای زبان فارسی و ایجاد مفهوم نیم‌فاصله داشتند که ظرفیت زبانی ما را بسیار افزایش داد. گاهی ارزش‌گذاری و قدردانی از این افراد را فراموش می‌کنیم.

حال اگر به محصولات شرکت‌های بزرگ مانند مایکروسافت نگاه کنیم، می‌بینیم که آن‌ها مجموعه‌ای از نرم‌افزارهای سازمانی را ارائه می‌دهند که به عنوان زیربنا استفاده می‌شوند. حتی در حوزه‌های تخصصی‌تر مانند مدیریت ارتباط با مشتری (CRM)، مایکروسافت محصولاتی ارائه می‌دهد که دیگر نیاز چندانی به بومی‌سازی ندارند.

رفتار این شرکت‌ها به دو بخش تقسیم می‌شود: یک سری محصولات را به صورت جهانی ارائه می‌دهند، به خصوص در بازارهایی که بزرگ هستند و مشارکت کاربران در آن‌ها زیاد است. این برای شرکت‌ها بسیار مهم است، زیرا نمی‌خواهند مزیت رقابتی خود را از دست بدهند.

و البته بخش‌های کوچک‌تری هم باقی می‌ماند که بازار آن‌ها چندان جذاب نیست یا ممکن است وابسته به بازارهای محلی باشند که از پوشش این شرکت‌های بزرگ خارج شده‌اند. در چنین مواردی، استارتاپ‌ها می‌توانند وارد شوند و خدمات ارائه دهند.

اما واقعیت این است که خدمات بزرگ را احتمالاً خود این شرکت‌های بزرگ ارائه خواهند داد، همان‌طور که تا به حال این کار را کرده‌اند. مثلاً، گوگل در حوزه‌های بسیار تخصصی مانند Google Patents یا Google Scholar خدمات ارائه می‌دهد.

حال اجازه دهید به سناریوی سوم بپردازیم. در این سناریو، فناوری‌های نرم‌افزاری دیگر مزیت اصلی نیستند. انگار که مدل‌های زبانی و مدل‌های مختلفی که در تحلیل داده‌های بزرگ استفاده می‌کنیم، رشد خود را کرده‌اند و دیگر مزیت‌ساز نیستند. تعداد زیادی از کاربران می‌توانند از آن‌ها استفاده کنند. در این شرایط، ممکن است با محدودیت‌های سخت‌افزاری مواجه شویم، یعنی به نقطه‌ای برسیم که سیستم‌های پشتیبانی نتوانند با این حجم از پردازش، پاسخگوی الگوریتم‌های ما باشند.

در این سناریو، مشاهده می‌کنیم که بخش نرم‌افزاری به سقف رشد خود رسیده است. در این شرایط، باید مزیت را یا در بخش سخت‌افزاری جبران کنیم یا فرض کنیم که این مزیت دیگر وجود ندارد و تنها مزیت همچنان بر روی منابع و کاربران، یعنی محتوا و کاربر خواهد بود. در این حالت، به نظر می‌رسد که بازارهای محلی اهمیت پیدا می‌کنند.

دلیل این امر این است که اگر سخت‌افزار به ثبت رسیده باشد و بازیگر اصلی شده باشد، آن است که رشد را تعیین می‌کند. اگر من در ایران باشم و فرض کنیم شخص دیگری در امارات باشد، اگر بخواهد در چنین بازاری فعالیت کند، می‌داند که آن منابع محدود است. اولاً، پاسخگوی نیازها نیست و ثانیاً، اگر شرکت‌هایی مانند مایکروسافت، گوگل یا حتی یک استارتاپ جدید سرمایه‌گذاری کرده باشند، بازارهای منطقه خودشان برایشان جذاب‌تر است و توجهی به من نخواهند داشت.

برای اینکه در این رقابت عقب نیفتم، باید زیرساخت‌های سخت‌افزاری خودم را توسعه دهم. این سخت‌افزارها در حقیقت بازی اصلی و بازیگر اصلی می‌شوند، زیرا بخش نرم‌افزاری کم و بیش به یک رقابت بدون مزیت رسیده است.

در این شرایط دو سناریوی سوم و چهارم اتفاق می‌افتد. تفاوت در این است که در سناریوی سوم، اهمیت داده و کاربر بالاست و در سناریوی چهارم، اهمیت داده و کاربر هم پایین است. پس دو سناریو داریم که در آن‌ها مسئله اصلی سخت‌افزار است و در نتیجه زیرساخت‌های محلی اهمیت پیدا می‌کنند که این ویژگی اول است. ویژگی دوم این است که بخش نرم‌افزاری کم و بیش یکسان شده و دیگر نمی‌تواند رشد بیشتری انجام دهد و به سقف محدودیت‌های سخت‌افزاری خود رسیده است. ویژگی سوم این است که در این حالت، دو موقعیت پیش می‌آید. در حالت اول، اهمیت منابع زیاد است و زیرساخت‌های محلی مورد نیاز خواهد بود. اینجاست که به نظر من بازارهای محلی شکل می‌گیرند.

به این معنا که یک سری استارتاپ‌های زیادی وجود دارند که آن فناوری نرم‌افزاری را دارند. مثلاً، فرض کنید یک شرکت هواپیمایی در حاشیه خلیج فارس را در نظر بگیریم. از یک طرف، رشد تکنولوژی در حال اتفاق افتادن است و از طرف دیگر، شرکت‌های بزرگ آنقدر بازارهای خودشان را دارند که اساساً وارد حوزه تخصصی مثل خطوط هوایی نشده‌اند.

من مزیت‌هایی در صنعت هواپیمایی دارم که مهم‌ترین آن‌ها داده‌هایی است که دارم. این محتوا بسیار اهمیت دارد و الزاماً گوگل یا متا یا امثال این‌ها آن را ندارند. این داده مربوط به صنعت هواپیمایی، داده‌ای ویژه من است.

در این شرایط، خوب است این جمله معروف را به یاد بیاوریم که زمانی گفته می‌شد هر شرکتی که داده‌های بزرگ دارد، به طور بالقوه می‌تواند یک شرکت فناوری اطلاعات باشد، صرف نظر از اینکه در چه حوزه‌ای فعالیت می‌کند.

حتی اگر یک شرکت تولید سیمان باشید، اما به اندازه کافی داده از فرآیند تولید، منابع انسانی و رفتار کارکنان خود تولید کرده باشید، به صورت بالقوه می‌توانید یک شرکت فناوری اطلاعات باشید. چرا که همان رفتار کارگران شما می‌تواند منبع ایجاد دانش قابل فروش باشد.

به نظر می‌رسد اتفاقی که در حال حاضر در ایران، حداقل در لایه سیاست‌گذاری، در حال رخ دادن است، با همین سناریوی سوم مطابقت دارد. یعنی تصور می‌شود که اهمیت با سخت‌افزار است و باید به خرید تجهیزات پردازشی مانند GPU و ایجاد مزارع GPU بزرگ محلی اقدام کرد تا بتوان روی آن‌ها سرویس ارائه داد.

از طرف دیگر، با صنایعی که داده‌های بزرگ دارند، از صنایعی مانند فولاد و نفت و گاز گرفته تا صنعت بانکداری یا حتی پلتفرم‌های بزرگ داخلی مانند روبیکا، اسنپ و دیجی‌کالا، همکاری می‌شود.

ایده این است که اپراتورهای محلی هوش مصنوعی ایجاد شوند، یعنی دولت خودش کمک کرده تا زیرساخت‌های بزرگ پردازشی با استفاده از خرید سخت‌افزار ایجاد شود و این‌ها داده‌ها را فراهم می‌کنند. همکاری بین ارائه‌دهندگان خدمات پردازشی از یک طرف و صاحبان داده از طرف دیگر می‌تواند منجر به ایجاد بازیگران بزرگ هوش مصنوعی شود. به نظر می‌رسد این رویکرد در همین سناریو معنا پیدا می‌کند. 

مشکل اصلی که سیاست‌گذاری در ایران با آن مواجه است، صرف نظر از اینکه در کدام حوزه فعالیت می‌کند، را می‌توان “قماربازی” نامید. قمارباز کسی است که یک سناریو را انتخاب می‌کند و فکر می‌کند که فقط همین یک سناریو وجود دارد و تمام منابع خود را روی آن سناریو متمرکز می‌کند.این رفتار در واقع غیرعقلانی است، زیرا فرض می‌کنیم فقط و فقط همین سناریو اتفاق می‌افتد.

در حالی که اگر من یک مرکز ملی هستم، باید برای چهار سناریو آماده باشم. نمی‌توان همه منابع را روی یک سناریو متمرکز کرد. این یک سناریو است، مانند آن سه یا چهار سناریوی دیگر که هر کدام شاید 25 درصد احتمال تحقق داشته باشند.عدم قطعیت‌های ما معمولاً پنجاه-پنجاه هستند. اگر دو دیدگاه پنجاه-پنجاه را با هم تقاطع دهیم، چهار سناریوی 25 درصدی به دست می‌آید و اگر برای آن 25 درصد آماده باشید، سود خود را برده‌اید. اما اگر آن سه سناریوی دیگر که مجموعاً 75 درصد احتمال تحقق دارند، اتفاق بیفتد و شما آماده نباشید، مشکل ایجاد می‌شود.آیا برای آن سناریوها نیز خود را آماده کرده‌اید؟ اینجاست که من به این رویکرد، قماربازی می‌گویم. 

سیاست‌گذاری ما در تمام عرصه‌ها، از جمله در حوزه نظامی، یک سیاست‌گذاری قمارباز است. تصور خاصی از جنگ یا درگیری در ذهن دارد و بر اساس آن قماربازی می‌کند. در حالی که اگر این موضوع را بیشتر بررسی کنیم، متوجه می‌شویم که حالت‌های مختلفی می‌تواند وجود داشته باشد و مهم این است که ما خود را برای حالت‌های مختلف آماده کنیم.

اجازه دهید درباره سناریوی چهارم صحبت کنیم. در این سناریو، قدرت محتوای محلی نیز کاهش پیدا کرده است. یعنی محتوا یا داده‌ای که داریم، دیگر وضعیت اصلی ما نیست یا نمی‌توانیم بگوییم بسیار حائز اهمیت است. اما بخش سخت‌افزاری ما اهمیتش افزایش یافته و دسترسی به گروه‌های متنوعی از افرادی که کار می‌کنند، وجود دارد.

در این شرایط، تعداد زیادی استارتاپ وجود دارد که هر کدام توانایی‌هایی دارند و این توانایی‌ها کم و بیش با هم قابل رقابت یا معنادار هستند. مثلاً اگر N تا سطح A وجود دارد، M تا سطح B و مثلاً تعدادی هم تا سطح C وجود دارد که این‌ها کم و بیش با هم برابرند. پس من حق انتخاب دارم و می‌توانم بر اساس دارایی و ویژگی‌هایی که دارند، یک شرکت را برای خودم انتخاب کنم.

در این حالت، شما الزاماً محتوای خاصی ندارید، اما ممکن است در یک حوزه خاص، مثلاً شبکه‌های اجتماعی یا لجستیک، فهم و تجربه داشته باشید. شاید داده‌های بسیار زیادی تولید نکرده باشید، اما درک دقیقی از آن بازار دارید و می‌توانید با داده‌های عمومی هم کار کنید.

در این سناریو، داستان بازار شبیه به شکل‌گیری مراکز داده می‌شود. یک سری شرکت‌هایی به وجود می‌آیند که زیرساخت‌های اولیه ابری به علاوه هوش مصنوعی را ارائه می‌دهند. یعنی همان بازیگران ابری یا مراکز داده سابق تبدیل می‌شوند به بازیگرانی که این خدمات را ارائه می‌دهند.

مثلاً می‌توانیم شرکت‌هایی مانند آسیاتک، شاتل، پارس آنلاین یا ابر آروان را در نظر بگیریم. هر کدام از این بازیگران، علاوه بر سرویس ابری یا زیرساختی که ارائه می‌دهند، یک سری سرویس‌های هوش مصنوعی را هم عرضه می‌کنند.

این شرکت‌ها ممکن است این سرویس‌ها را از یک شرکت بزرگ‌تر جهانی گرفته باشند یا اینکه خودشان با جذب استارتاپ‌های نوآور، این قابلیت‌ها را ایجاد کرده باشند. در واقع، همان استارتاپ‌هایی که قبلاً به صورت مستقل فعالیت می‌کردند، حالا جذب این شرکت‌های بزرگ‌تر شده‌اند. این شرکت‌ها علاوه بر فضای ابری، سرویس‌های هوش مصنوعی را هم روی همان زیرساخت‌های ذخیره‌سازی و پردازشی که به مشتریان ارائه می‌دهند، عرضه می‌کنند.

پس مراکز داده یا ابرهای سابق، خودشان تبدیل به بازیگران اصلی شده‌اند و به انبوهی از بازیگران کوچک‌تر سرویس می‌دهند. هر کدام از این بازیگران کوچک‌تر می‌توانند از این زیرساخت آماده، سرویس‌های متناسب با نیاز خود را دریافت کنند.

در نتیجه، ما تعداد زیادی شرکت کوچک و استارتاپ خواهیم داشت که در نهایت به شرکت‌های متوسط و تا حدی موفق، اما نه خیلی بزرگ، تبدیل می‌شوند. این‌ها در مقیاس‌های محلی و تخصصی فعالیت می‌کنند.

مثلاً می‌توانیم استارتاپی را تصور کنیم که سرویس هوش مصنوعی به رسانه‌ها ارائه می‌دهد، یا شرکت‌هایی که در حوزه لجستیک فعالیت می‌کنند. حتی شرکت‌های بزرگ‌تر مانند دیجی‌کالا ممکن است خودشان به یکی از این بازیگران تبدیل شوند یا استارتاپی را در این زمینه جذب کنند. در این سناریو، بازیگران اصلی همچنان کسانی هستند که قبلاً هم در این حوزه‌ها فعالیت می‌کردند، مانند شرکت‌های سنتی که حالا از هوش مصنوعی برای بهبود عملکرد خود استفاده می‌کنند.

مثلاً شرکت نفت یا دیگر شرکت‌های سنتی که قبلاً هم فعالیت داشتند، حالا از سرویس‌های هوش مصنوعی برای بهبود فرآیندهای خود استفاده می‌کنند. این سرویس‌ها می‌تواند از شبیه‌سازی منابع گازی گرفته تا انواع دیگر خدمات را شامل شود.

دکتر مهدی محمدی: بسیار عالی، امیر جان. به نظرم بحث بسیار خوبی بود. شاید لازم باشد یک دور دیگر بنشینیم و حدود یک ساعت درباره جزئیات این سناریوها صحبت کنیم. لطفا یه جمع‌بندی از نظرات شخصی خودت درمورد محتمل‌ترین سناریو می‌دهی؟

دکتر امیر ناظمی: اگر بخواهم جمع‌بندی کنم، سناریوی دوم محتمل‌ترین سناریو است. در این سناریو، شرکت‌های بزرگ همچنان سلطه خود را حفظ می‌کنند. آن‌ها با شناسایی و خرید استارتاپ‌های نوظهور و آینده‌دار، این شرکت‌های کوچک را با مجموعه وسیعی از خدمات خود ترکیب می‌کنند. این شرکت‌های بزرگ همزمان به محتوا و کاربران دسترسی دارند، که باعث رشد سریع آن‌ها می‌شود. این وضعیت حتی برای استارتاپ‌ها جذاب است، زیرا می‌دانند بدون دسترسی به داده‌ها و کاربران، رشد چندانی نخواهند داشت.

در میان سناریوهای سه و چهار، احتمال وقوع سناریوی چهارم بیشتر است. به نظر می‌رسد دوران مداخله‌های دولتی گذشته است. حتی اگر تغییرات در فناوری‌های نرم به سقف خود برسد و رقابت به سمت فناوری‌های سخت برود، سناریوی چهارم شانس بیشتری دارد. در این حالت، ما به وضعیتی نیاز پیدا می‌کنیم که در آن تعدادی ارائه‌دهنده خدمات برای مجموعه‌ای از شرکت‌ها وجود داشته باشند. نمی‌توانیم تصور کنیم که فقط یک شرکت در این اکوسیستم رشد کند و بقیه عقب بمانند.

دکتر  مهدی محمدی: بسیار عالی. تحلیل شما مثل همیشه آینده‌پژوهانه، دقیق و چندوجهی است. به نظرم تماشای این برنامه را به تمام سیاست‌گذاران حوزه دیجیتال و به‌ویژه هوش مصنوعی توصیه می‌کنم. آن‌ها باید حتماً این یک ساعت و اندی را ببینند و بشنوند.

دکتر امیر ناظمی: موافقم. فکر می‌کنم خوب است که یک برنامه دیگر درباره سیاست‌های مقاوم برای این سناریوها داشته باشیم. باید درباره سیاست‌هایی صحبت کنیم که حداقل در سه یا چهار سناریو بتواند ظرفیت هوش مصنوعی را برای کشور ایجاد کند. ما همه می‌دانیم که این پارادایم حداقل برای یک یا دو دهه آینده خواهد بود و یک پنجره فرصت است که اگر از آن استفاده نکنیم، شکاف عمیقی بین ما و دیگران ایجاد خواهد شد. می‌توانیم هم درباره سیاست‌ها در لایه شکست‌های سیستمی صحبت کنیم و هم اینکه هر کدام از این سیاست‌ها در کدام سناریو احتمالاً مقاوم‌تر یا کاربردی‌تر خواهند بود.

دکتر مهدی محمدی: بسیار عالی. من همیشه از هم‌صحبتی با شما لذت می‌برم و بحث‌هایمان همیشه به من کمک می‌کند تا بهتر مسائل را ببینم و درباره آن‌ها فکر کنم. امیدوارم به زودی شما را از نزدیک در استودیو فیوچراوببینیم و با هم صحبت کنیم.

دکتر امیر ناظمی: من هم خیلی خوشحال شدم. فکر می‌کنم بحث خوبی درباره آینده هوش مصنوعی داشتیم و لازم است این بحث را یک بار دیگر ادامه دهیم و درباره سیاست‌ها صحبت کنیم. از همه بینندگان که این برنامه را دنبال کردند، تشکر می‌کنم.



نظرات

یک پاسخ

  1. سلام
    دکتر ناظمی به مطالب حول موضوع هوش مصنوعی احاطه خیلی خوبی دارند و آینده و سناریوهای پیش روی هوش مصنوعی را به خوبی تحلیل کردند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

درباره این قسمت:

گفتگوهای مشابه:

تاریخ شفاهی اکوسیستم نوآوری و دانش‌بنیان ایران

Episode 2: Future of AI

Episode 1: Nelson Book

کانسپت

گفتگو با فرزین فردیس درباره تأثیر هوش مصنوعی و اقتصاد دیجیتال

گفتگو با نرگس محمدی و محمد صدر درباره سرویس‌های زیرساختی هوش مصنوعی