একটি জনপ্রিয় সাই-ফাই ক্লিচ রয়েছে যে একদিন আইআই প্রজাতিগুলিকে হত্যা করে সবাইকে হত্যা করে এবং হত্যা করে। সত্যিই কি ঘটবে? বাস্তব বিশ্বে, এআই গবেষকরা বলেছেন যে তারা এআই উন্নয়নের যুক্তিসঙ্গত ফলাফল হিসাবে মানব বিলুপ্তিকে দেখেন। ২০২৪ সালে, শত শত গবেষক একটি বিবৃতিতে স্বাক্ষর করেছেন যাতে লেখা আছে: “এআই বিলুপ্তির ঝুঁকি বাড়ানো অন্যান্য সামাজিক স্কেলগুলিতে যেমন মহামারী এবং পারমাণবিক যুদ্ধের ঝুঁকির পাশাপাশি বিশ্বব্যাপী অগ্রাধিকার হওয়া উচিত।”
ঠিক আছে, ছেলেরা।
মহামারী এবং পারমাণবিক যুদ্ধ বাস্তব, স্পষ্ট উদ্বেগ এবং আমার কাছে, আরএএনডি কর্পোরেশনের বিজ্ঞানীরা কমপক্ষে এআই ডুমস। আমরা জাতীয় সুরক্ষা ইস্যু নিয়ে বিভিন্ন গবেষণা চালিয়েছি, সম্ভবত শীতল যুদ্ধের সময় পারমাণবিক বিপর্যয় রোধে কৌশল বিকাশে আমাদের ভূমিকার জন্য পরিচিত। র্যান্ড মানব হুমকিকে গুরুত্ব সহকারে নেয়, তাই আমি এআই -তে মানব বিলুপ্তির সম্ভাবনা সম্পর্কে সন্দেহবাদী এবং এটি অধ্যয়ন করা যায় কিনা তা অধ্যয়নের জন্য একটি প্রকল্পের প্রস্তাব দিয়েছি।
সমর্থন বৈজ্ঞানিক সংবাদ
আপনি যদি এই নিবন্ধটি পছন্দ করেন তবে আমাদের পুরষ্কারপ্রাপ্ত সাংবাদিকতাকে সমর্থন করার বিষয়টি বিবেচনা করুন সাবস্ক্রিপশন। সাবস্ক্রিপশন কিনে, আপনি আজকের বিশ্ব সম্পর্কে আবিষ্কার এবং ধারণা সম্পর্কে প্রভাবশালী গল্পগুলির ভবিষ্যত নিশ্চিত করতে সহায়তা করতে পারেন।
আমার দলের অনুমানগুলি হ’ল: মানব বিলুপ্তির জন্য চূড়ান্ত হুমকির ক্ষেত্রে কোনও সমাধান বর্ণনা করা যায় না। অন্য কথায়, আমাদের প্রারম্ভিক ধারণাটি হ’ল মানুষ যে কোনও সরঞ্জাম ব্যবহার করা হয়েছে তা ধরে নিয়ে আমাদের ধ্বংস করতে পৃথিবীতে খুব অভিযোজ্য, খুব ধনী, খুব ছড়িয়ে ছিটিয়ে রয়েছে। যদি আমরা প্রমাণ করতে পারি যে এই অনুমানটি মিথ্যা, এর অর্থ এআইআই মানবতার জন্য সত্যিকারের হুমকি হতে পারে।
অনেকে এআইয়ের বিপর্যয়কর ঝুঁকির মূল্যায়ন করছেন। সবচেয়ে চরম ক্ষেত্রে, কেউ কেউ দৃ sert ়ভাবে দাবি করেন যে এআই সুপার বুদ্ধিমান হয়ে উঠবে, প্রায় আমাদের ন্যানো টেকনোলজির মতো অভিনব উন্নত প্রযুক্তি ব্যবহার করে আমাদের দায়িত্ব গ্রহণ এবং ধ্বংস করতে। পূর্বাভাসকারীরা ভবিষ্যদ্বাণী করেছেন যে এআই বিপর্যয়ের ঝুঁকির সম্ভাবনা সাধারণত 2100 সালে মানব বিলুপ্তির কারণ এআইয়ের সম্ভাবনার 0% থেকে 10% এর মধ্যে থাকে। আমরা নীতি নির্ধারণ এবং ঝুঁকি হ্রাস ভবিষ্যদ্বাণীমূলক মান সম্পর্কে এই জাতীয় ভবিষ্যদ্বাণীগুলির মান নিয়ে সন্দেহ করি।
আমাদের দলে বিজ্ঞানী, প্রকৌশলী এবং গণিতবিদ রয়েছে। আমরা আমাদের এআই সংশয়বাদকে গ্রাস করি এবং (খুব র্যান্ড উপায়ে) এআই কীভাবে প্রকৃতপক্ষে মানব বিলুপ্তির দিকে পরিচালিত করতে পারে তা বিশদ বিবরণ দেয়। একটি সাধারণ বৈশ্বিক বিপর্যয় বা সামাজিক পতন আমাদের পক্ষে যথেষ্ট নয়। আমরা বিলুপ্তির ঝুঁকিটিকে গুরুত্ব সহকারে নেওয়ার চেষ্টা করি, যার অর্থ আমরা কেবল আমাদের প্রজাতি সম্পূর্ণরূপে অপসারণে আগ্রহী। এআই আমাদের হত্যা করার চেষ্টা করছে কিনা তা নিয়ে আমরা আগ্রহী নই – কেবল এটি সফল হতে পারে কিনা।
এটি একটি প্যাথলজিকাল কাজ। আমরা সঠিকভাবে বিশ্লেষণ করি যে এআই কীভাবে তিনটি প্রধান হুমকিগুলি সাধারণত উপস্থিত বলে বিবেচিত হয়: পারমাণবিক যুদ্ধ, জৈবিক রোগজীবাণু এবং জলবায়ু পরিবর্তনের জন্য তিনটি প্রধান হুমকি।
দেখা যাচ্ছে যে আমাদের সকলকে হত্যা করা সম্পূর্ণ অসম্ভব না হলেও এটি কঠিন।
সুসংবাদ, যদি আমি এটিকে কল করতে পারি তবে এটি হ’ল আমরা মনে করি না যে এআই আমাদের সকলকে পারমাণবিক অস্ত্র দিয়ে হত্যা করতে পারে। এমনকি যদি এআই কোনওভাবে নয়টি বৈশ্বিক পারমাণবিক স্টকগুলিতে সমস্ত 12,000+ ওয়ারহেড চালু করার ক্ষমতা অর্জন করে তবে বিস্ফোরণ, তেজস্ক্রিয় পরিণতি এবং ফলস্বরূপ পারমাণবিক শীত এখনও বিলুপ্তির স্তরের ইভেন্টগুলিতে নাও থাকতে পারে। মানুষ এত প্রচুর পরিমাণে যে তারা বিস্ফোরণে ছড়িয়ে ছিটিয়ে রয়েছে যা আমাদের সকলকে সরাসরি হত্যা করে। এআই পৃথিবীর সর্বাধিক জ্বালানী-নিবিড় অঞ্চলে অস্ত্রগুলি বিস্ফোরণ করতে পারে এবং এখনও উল্কা তৈরি করতে পারে না যা উল্কা মতো ডাইনোসরকে ধ্বংস করতে পারে। পৃথিবীতে সমস্ত উপলভ্য কৃষিজমি পুরোপুরি আলোকিত করার জন্য পৃথিবীতে পর্যাপ্ত পারমাণবিক ওয়ারহেডও নেই। অন্য কথায়, এআই-প্ররোচিত পারমাণবিক বিপর্যয় বিপর্যয়কর হবে, তবে এটি এখনও সবাইকে হত্যা করতে পারে না, কারণ কিছু মানুষ বেঁচে থাকবে এবং প্রজাতিগুলি পুনর্নির্মাণের সম্ভাবনা রাখে।
অন্যদিকে, আমরা বিশ্বাস করি যে মহামারীটি বিলুপ্তির যুক্তিসঙ্গত হুমকি। এর আগে প্রাকৃতিক জটগুলি বিপর্যয়কর ছিল, তবে মানব সমাজ বেঁচে আছে এবং সৈন্যরা। এমনকি ক্ষুদ্রতম জনসংখ্যা (যার কয়েক হাজার সদস্য থাকতে পারে) শেষ পর্যন্ত প্রজাতিটি পুনর্গঠন করতে পারে। মারাত্মক রোগজীবাণুগুলির অনুমানমূলক 99.99% 800,000 এরও বেশি লোককে বাঁচিয়ে রাখবে।
তবে, আমরা নির্ধারণ করেছি যে প্যাথোজেনগুলির সংমিশ্রণটি প্রায় 100% প্রাণঘাতীতা অর্জনের জন্য ডিজাইন করা যেতে পারে এবং এআই এই জাতীয় রোগজীবাণু স্থাপনের জন্য দ্রুত, বৈশ্বিক দৃষ্টিভঙ্গি নিশ্চিত করতে ব্যবহার করা যেতে পারে। মূল সীমাবদ্ধতা হ’ল এআই-এর এমন সম্প্রদায়গুলিকে সংক্রামিত বা নির্মূল করার জন্য কিছু উপায় প্রয়োজন যা অনিবার্যভাবে প্রজাতির মহামারীটির মুখে নিজেকে আলাদা করে দেয়।
শেষ অবধি, যদি এআই বাগানের পরিবর্তনের ক্ষেত্রে নৃতাত্ত্বিক জলবায়ু পরিবর্তনকে ত্বরান্বিত করতে চলেছে, তবে এটি এখনও সমস্ত মানুষের জন্য বিলুপ্তির হুমকি তৈরি করে না। এমনকি যদি মানুষ পৃথিবীর খুঁটিতে যাওয়ার সাথে জড়িত থাকে তবে মানুষ বেঁচে থাকতে পারে এমন নতুন পরিবেশগত কুলুঙ্গি খুঁজে পেতে পারে। মানুষের দ্বারা পৃথিবী সম্পূর্ণরূপে বাস করা এআইকে কার্বন ডাই অক্সাইডের চেয়ে আরও দক্ষতার সাথে বায়ুমণ্ডলে শোষণ করতে এআই প্রয়োজন। এটা সুসংবাদ।
খারাপ খবরটি হ’ল সেই আরও শক্তিশালী গ্রিনহাউস গ্যাসগুলি বিদ্যমান। এগুলি শিল্প স্কেলে উত্পাদিত হতে পারে। তারা কয়েকশো বা হাজার বছর ধরে বায়ুমণ্ডলে স্থায়ী ছিল। যদি এআই আন্তর্জাতিক পর্যবেক্ষণ থেকে বিরত থাকে এবং এই রাসায়নিকগুলির শত শত মেগা-মেগা আকারের পণ্যগুলির উত্পাদন (যা প্রতি বছর মানুষের তুলনায় অনেক কম প্লাস্টিক) উত্পাদনকে অর্কেস্টেট করে, তবে মানুষের জন্য কোনও অবশিষ্ট পরিবেশগত কুলুঙ্গি না পাওয়া পর্যন্ত গ্রহটি রান্না করা।
আমি এটি পরিষ্কার করতে চাই না: আমাদের এআই-চালিত পরিস্থিতিগুলির কোনওটিই সুযোগের সাথে ঘটে না। প্রত্যেকেই একটি কঠিন চ্যালেঞ্জে রয়েছে। কৃত্রিম বুদ্ধিমত্তা একরকম প্রধান সীমাবদ্ধতাগুলি কাটিয়ে উঠতে হবে।
বিশ্লেষণের সময়, আমরা আমাদের অনুমানের সুপার ডেমোন এআইয়ের অবশ্যই চারটি জিনিসও চিহ্নিত করেছি: প্রথমত, এটি বিলুপ্তির জন্য কোনও উপায়ে একটি লক্ষ্য নির্ধারণ করা দরকার। পারমাণবিক অস্ত্র নিয়ন্ত্রণ বা রাসায়নিক উত্পাদন অবকাঠামো চালু করার মতো হুমকি তৈরি করে এমন সমালোচনামূলক শারীরিক ব্যবস্থাগুলিও এআইকে নিয়ন্ত্রণ করতে হবে। সাফল্য অর্জনের জন্য দীর্ঘকাল কাজ করার তাদের দক্ষতা এবং আড়াল করতে মানুষকে প্ররোচিত করার প্রয়োজন। এবং এটি অবশ্যই মানুষের সমর্থন ছাড়াই বেঁচে থাকতে সক্ষম হতে হবে, কারণ সমাজ যদি ভেঙে পড়তে শুরু করে, তবে ফলোআপ সম্পূর্ণ বিলুপ্তির প্রয়োজন হবে।
যদি এআইয়ের চারটি বৈশিষ্ট্য না থাকে তবে আমাদের দলটি এই সিদ্ধান্তে পৌঁছেছে যে এর বিলুপ্তির প্রকল্পটি ব্যর্থ হবে। এটি বলেছিল, এই সমস্ত বৈশিষ্ট্য সহ অজ্ঞান হয়ে এআই তৈরি করা এমনকি যুক্তিসঙ্গত হবে। তদুপরি, মানুষ ইচ্ছাকৃতভাবে এই সমস্ত ফাংশনের জন্য এআই তৈরি করতে পারে। বিকাশকারীরা ইতিমধ্যে প্রক্সি বা আরও স্বায়ত্তশাসিত এআই তৈরি করার চেষ্টা করছে এবং তারা এআইকে সংশোধিত এবং প্রতারণামূলক ক্ষমতা সহ পর্যবেক্ষণ করেছে।
তবে যদি বিলুপ্তি কৃত্রিম বুদ্ধিমত্তার বিকাশের যুক্তিসঙ্গত ফলাফল হয় তবে এর অর্থ কি আমাদের প্রতিরোধের নীতিটি অনুসরণ করা উচিত? এর অর্থ: এটি নিরাপদ কারণ এটি সমস্ত বন্ধ করুন? আমরা বলি উত্তর না। বন্ধ করার পদ্ধতিটি কেবল তখনই উপযুক্ত যদি আমরা এআইয়ের সুবিধাগুলি সম্পর্কে খুব বেশি চিন্তা না করি। আরও ভাল বা খারাপের জন্য, আমরা এআই যে সুবিধাগুলি নিয়ে আসতে পারে সে সম্পর্কে আমরা খুব উদ্বিগ্ন এবং সম্ভাব্য তবে অত্যন্ত অনিশ্চিত বিপর্যয় এমনকি মানব বিলুপ্তির পরিণতিগুলি এড়াতে তাদের ছেড়ে দেওয়া অনুচিত।
তাহলে এআই কি একদিন আমাদের সবাইকে হত্যা করবে? এটা বলা হাস্যকর নয় ক্যান। একই সাথে, আমাদের কাজটি আরও দেখায় যে মানুষের নিজের ধ্বংস করতে এআইয়ের সহায়তার প্রয়োজন হয় না। বিলুপ্তির ঝুঁকি হ্রাস করার একটি নির্ভরযোগ্য উপায়, এআই থেকে উদ্ভূত হোক বা না হোক, পারমাণবিক অস্ত্রের সংখ্যা হ্রাস করে, পৃথিবীর দ্বারা উত্তপ্ত রাসায়নিকগুলি সীমাবদ্ধ করে এবং মহামারী পর্যবেক্ষণকে উন্নত করে আমাদের বেঁচে থাকার সম্ভাবনা বাড়ানো। এআই সুরক্ষা গবেষণায় বিনিয়োগ করাও বোধগম্য হয়, আপনি এআই কিনছেন কি না তা সম্ভাব্য বিলুপ্তির ঝুঁকি। দায়বদ্ধ এআই বিকাশের একই পদ্ধতি হ’ল বিলুপ্তির ঝুঁকি হ্রাস করা এবং অন্যান্য এআই-সম্পর্কিত বিপদগুলির ঝুঁকিগুলিও হ্রাস করবে, যা বিদ্যমানগুলির চেয়ে কম এবং অনিশ্চিত নয়।
এটি একটি মতামত এবং বিশ্লেষণ নিবন্ধ, এবং লেখক বা লেখক দ্বারা প্রকাশিত মতামত অগত্যা নয় বৈজ্ঞানিক আমেরিকান।