<p>বাংলাদেশ কৃষিপ্রধান দেশ। দ্রব্যমূল্যের ঊর্ধ্বগতির দেশে এখন পর্যন্ত কৃষকের অবস্থার কোনো উন্নতি নেই। এর মধ্যে কৃষকের চাষ করা সবজি যদি নানা রোগের কবলে পড়ে, তা হবে মড়ার ওপর খাঁড়ার ঘা। একে তো বিরূপ আবহাওয়ার কারণে ধানি জমির শস্যের অবস্থা বেহাল, তার ওপর যদি ঠিকঠাক সবজি বা ফসলের রোগ নির্ণয় করা না যায় তাহলে ব্যাপক আর্থিক ক্ষতির আশঙ্কা থেকেই যায়।</p> <p>একেবারে প্রথম অবস্থায় পাতা বা অন্য কোনো অংশে ছোপ ছোপ দাগ দেখলে কিংবা কোনো সমস্যা মনে হলে এই রোগ টা কী, তা জানার জন্য স্যাম্পল নিয়ে ল্যাবে যেতে হবে আর না হলে কোনো অ্যাগ্রিকালচার এক্সপার্ট আনতে হবে। নয়তো একেবারে প্রথম অবস্থায় সমস্যা ধরা পড়বে না। বিভিন্ন বিজ্ঞানীর মতে, এতে যেমন সময় লাগে, তেমন সব সময় অ্যাগ্রিকালচার এক্সপার্ট পাওয়াও সম্ভব হয় না।</p> <p>নতুন দিল্লিতে অটোমেটিক ডিজিজ ডিটেকশনের ওপর একটা পেপারে বলা হয়েছে, ১০-১৫% চালের উৎপাদন বেশি করা সম্ভব, যদি এই ফসলের রোগ না থাকে। আর এই রোগগুলো কমানো যায় যদি ‍আগে থেকে শনাক্ত করা সম্ভব হয়। এখনকার সময়ে,ঝামেলা কমিয়ে অটোমেটিক ফসলি রোগ নির্ণয় করা খুব সহজ। আর যেখানেই অটোমেটিক রোগ নির্ণয়, সেখানেই চলে আসে ডিপ লার্নিং বা এআই।</p> <p>বোঝার সুবিধার জন্য, এআই এবং ডিপ লার্নিংয়ের পার্থক্যের ব্যাপারটা এভাবে বলা যায়, আর্টিফিশিয়াল ইন্টেলিজেন্সের মধ্যে মেশিন লার্নিং একটা অংশ আর মেশিন লার্নিংয়ের মধ্যে ডিপ লার্নিং আরেকটা অংশ।</p> <p>মেশিন লার্নিংয়ের মাধ্যমে প্রযুক্তির এই যুগে সব কিছু হয়ে গেছে অনেক সহজ। কয়েকটা পদ্ধতি আর তাতেই সবজির রোগ নির্ণয় করা যাবে অটোমেটিক্যালি। সবার প্রথমে কোড করার জন্য একটা টুল নিতে হবে। পাইথন প্রোগ্রামাররা বেশির ভাগ ক্ষেত্রে ব্যবহার করেন গুগল কোল্যাব। এরপর ডেটাসেট সংগ্রহ করে নিতে হবে। যেটা এমন থাকতে পারে যে, প্রথমে একটা ভালো সবজির ছবি, তারপর অল্প পচন ধরা একটা সবজির ছবি।</p> <p>এরপর আরো একটু বেশি পচন ধরা সবজির ছবি, এভাবে এমন একটা ডেটাসেট জোগাড় করা যেতে পারে। যেগুলো অনেক অনলাইন প্ল্যাটফরমেও এভেইলেবল। এ ক্ষেত্রে উদাহরণের জন্য বলা যায় ‘প্লান্ট ভিলেজ’ নামে একটা ডেটাসেট, যেখানে টমেটো, আলু এবং বিভিন্ন সবজি বা শস্যের কয়েক হাজার ছবি রয়েছে। কিছু নষ্ট সবজির ছবি, কিছু ভালো সবজির ছবি, কিছু অন্য অ্যাঙ্গেলের ছবি।</p> <p>অনেক রিসার্চ পেপারে প্লান্ট ভিলেজ ডেটাসেট ব্যবহার করা হয়। আর কিছু কিছু রিসার্চে রিসার্চাররা নিজেরা ঘুরে ঘুরে কষ্ট করে ছবি তুলে সেগুলো থেকে ডেটাসেট তৈরি করেন। তবে রাইস  লিফ ডিটেকশন, রাইস ডিজিজ ডিটেকশন নামেও অন্য অনেক ডেটাসেট রয়েছে বিভিন্ন ডেটা সায়েন্সের সাইটগুলোতে। তার পরের ধাপে কাজ হলো ছবিগুলোকে প্রি-প্রসেসিং করা। প্রি-প্রসেসিং কিন্তু বিভিন্নভাবে করা যায়। যেমন- ছবি রোটেট করা যায়, ছবির কালার চেঞ্জ করা যায়, ছবির সাইজ চেঞ্জ করা যায় ইত্যাদি। এতে সুবিধা হয় যে একই ছবি বিভিন্নভাবে যখন উপস্থাপন করা হয়, তখন আরো ট্রেইন করানোর জন্য ছবির স্যাম্পল বেড়ে যায়। যেমন যদি একটা ছবিতে নয়েজ এড করা হয়, অর্থাৎ একটা ছবিতে অনেক ছোটো ছোটো বিন্দু, কিন্তু এটা দেখেও ‍সিস্টেম বুঝে নেবে যে এই ছবির আসল ছবি কোনটা। এতে সবচেয়ে বড় সুবিধা হচ্ছে, অনেক বেশি ছবি দিয়ে সিস্টেমকে অনেক ভ্যারিয়েশন চেনানো যায়। এই প্রসেসকে ডেটা অগমেন্টেশনও বলা হয়।</p> <p>এই প্রি-প্রসেসিং স্টেপটা করা হয় কোডের মাধ্যমে। আরো একটা টার্ম আছে, যেটাকে ফিচার এক্সট্রাকশন বলে। একটা ছবি থেকে কী কী প্রয়োজন, আমাদের সেই গুরুত্বপূর্ণ বিষয়গুলোকে আমলে আনতে হয়। যেমন- শুধু একটা পাতার পচে যাওয়া দিকটা, একটা ছবির কালার টেক্সচার- এ রকম আরো অনেক গুরুত্বপূর্ণ ফিচার।</p> <p>এর পরের ধাপ হচ্ছে, ছবিগুলোকে একটা নির্দিষ্ট মডেলে ফেলে ট্রেইন করা। অধিকাংশ ক্ষেত্রে ডেটাসেটের ৭০-৮০% ছবি দিয়ে ট্রেইন করা হয়, আর বাকি ২০-৩০% ছবি দিয়ে টেস্ট করা হয়। এখানে একটা কথা বলে রাখা ভালো, রোগাক্রান্ত সবজির ছবি আর নরমাল ছবি এই দুই ধরনের ছবি দিয়েই কিন্তু মডেল ট্রেইন হবে।</p> <p>অনেক মডেল দিয়েই কাজ করা যায়, যেমন : CNN, TransferLearning, SVM সহ আরো অনেক। কিন্তু আমরা যদি একটা নির্দিষ্ট মডেল বলি যেটা রিসার্চাররা ভরসা করেন, যেমন- ট্রান্সফার লার্নিং মডেল।  এর বৈশিষ্ট্য হচ্ছে, এর মধ্যে আগে থেকে ট্রেইন করানো কিছু এলগোরিদম থাকে ।যেমন : DenseNet, MobileNet, Inception, ResNet এমন আরো অনেক ভেরিয়েশনের আর্কিটেকচার। এই মডেলগুলোর মধ্যে আগে থেকেই অনেক ডেটা দিয়ে একটা প্রোপার সিস্টেম তৈরি করা থাকে।</p> <p>শুধু যে যেই ডেটাসেট ব্যবহার করবে সে ওভাবেই নিজেদের মতো করে কোড-এর ফাংশনে চেঞ্জ করে নিয়ে ব্যবহার করে থাকে। তা ছাড়া নিজেদের মতো করে আরো অনেক মডেল বা এলগোরিদম ও প্রোপোজ করা হয় বিভিন্ন রিসার্চে। এরপর নির্দিষ্ট মডেলের মধ্যে ট্রেইন করানো হয়ে গেলে, এবার আসে এটা ঠিকমতো কাজ করতে পারছে কি না বা অন্য সবজি বা ফসলের ছবি দেখে ভুলগুলো ধরতে পারছে কি না। </p> <p>এখানে শেষমেশ দুই  লাইনের কোড দিয়ে একিউরেসি চেক করা হয়। অনেক ক্ষেত্রে এখানে ৯০%-এর বেশি একিউরেসিও আসে।<br /> ইম্প্লিমেন্টেশনের কাজ শেষ। এবার প্র্যাকটিক্যালি মোবাইল অ্যাপ বা ওয়েব বেইজ টুলগুলোতে এই কোড ইম্প্লিমেন্ট করে দেওয়া হয়। যেটায় যেকোনো ভালো বা পচে যাওয়া সবজির ছবি তুলে দিলেই কোড অনুযায়ী বলে দেবে কোন ফসলটা ভালো বা কোনটাতে পচন ধরেছে। এভাবে রিয়েল লাইফে কাজ করে থাকে এই কোড।</p> <p>মেশিন লার্নিং বা ডিপ লার্নিংয়ের মডেলগুলো এমন একটা টেকনোলজিক্যাল অ্যাডভান্সমেন্ট, যা এখন শুধু কৃষকদের একটা ছবি তুলে ওই অ্যাপ্লিকেশনে আপলোড করার অপেক্ষা।</p> <p>লেখক : শিক্ষার্থী, আমেরিকান ইন্টারন্যাশনাল ইউনিভার্সিটি, বাংলাদেশ<br /> সূত্র : স্পিঞ্জার ও সায়েন্স ডিরেক্ট</p> <ol> </ol> <p style="margin-bottom:11px"> </p>