চ্যাটজিপিটি এআইয়ের এক অন্যতম আবিষ্কার, যা আমাদের জীবনে যেন আশীর্বাদ হয়েই এসেছে। প্রযুক্তির এই আবিষ্কার জীবনকে অনেক সহজ করেছে। যে কোনো প্রশ্ন করলেই সহজে উত্তর দিয়ে দেয় সে। শুধু গুরুগম্ভীর আলোচনা নয়, সে লিখে দেয় কবিতা।

রেসিপি থেকে শুরু করে গণিত সমাধান, ভার্সিটির অ্যাসাইনমেন্ট, রিপোর্টের সব ধরনের কাজে আপনাকে সাহায্য করতে পারে। প্রেমিকাকে কীভাবে পটাবেন সেই পরামর্শও নেন চ্যাটজিপিটি থেকে।

অনেকেই এআই চ্যাটবটের সঙ্গে কথপোকথনের ক্ষেত্রেও অত্যন্ত বিনয়ী। যে কোনঘ কমান্ডে জুড়ে দেন ‘প্লিজ’ বা ‘ক্যান ইউ’। আবার প্রয়োজন শেষে ধন্যবাদ জানাতেও ভোলেন না। কিন্তু এই ধরনের শব্দ বলায় ভয়ংকর ক্ষতি হয়ে যেতে পারে তা জানেন কি?

মূলত ‘প্লিজ’, ‘ক্যান ইউ’, ‘থ্যাঙ্ক ইউ’, এই ধরনের শব্দগুলো মানুষের জন্য। সৌজন্য প্রকাশের জন্য এই ধরনের শব্দ ব্যবহার করা হয়। চ্যাটজিপিটি, জিমিন এআই, বা কোনো এআই চ্যাটবটই এগুলোর সঙ্গে অভ্যস্ত নয়। চ্যাটবট শুধু নির্দেশ বোঝে এবং তা কার্যকর করতে পারে।

এই ধরনের সৌজন্যমূলক শব্দগুলোর অর্থ বুঝতে যে পরিমাণ এনার্জি খরচ করতে হয় তা সংস্থাকে জন্য বিপুল অঙ্কের আর্থিক ক্ষতির মুখোমুখি করে। তাই এই ধরনের সৌজন্যমূলক শব্দ ব্যবহার না করাই ভালো। জানা যাচ্ছে, পরবর্তীতে চ্যাটবটগুলোর পক্ষ থেকেই এই শব্দগুলোকে ব্লক করা হতে পারে। অর্থাৎ শুধু প্রয়োজনীয় নির্দেশ দেবেন অল্প শব্দে। পেয়ে যাবেন জবাব।

২০২২ সালের নভেম্বরে আত্মপ্রকাশ করেছিল চ্যাটজিপিটি। প্রথম থেকেই চমকে দিয়েছিল ওপেনএআই নির্মিত চ্যাটবটটি। কিন্তু কেউ ভাবতে পারেনি এত দ্রুত মানুষের এত কাছে পৌঁছে যাবে সে! তবে এর উল্টোদিকও আছে। সম্প্রতি চ্যাটজিটিপির নির্মাতা ওপেনএআইয়ের প্রধান নির্বাহী কর্মকর্তা স্যাম অল্টম্যান নিজেই সতর্ক করেছেন চ্যাটবট ব্যবহারে।

কেএসকে/জেআইএম



Contact
reader@banginews.com

Bangi News app আপনাকে দিবে এক অভাবনীয় অভিজ্ঞতা যা আপনি কাগজের সংবাদপত্রে পাবেন না। আপনি শুধু খবর পড়বেন তাই নয়, আপনি পঞ্চ ইন্দ্রিয় দিয়ে উপভোগও করবেন। বিশ্বাস না হলে আজই ডাউনলোড করুন। এটি সম্পূর্ণ ফ্রি।

Follow @banginews