تُعد إدارة الغابات المستدامة هدفًا رئيسيًا، يُطلب فيه رسم خرائط دقيقة لتكوين الأنواع. ولكن، تكمن المشكلة الأساسية في أن المسوحات التقليدية الأرضية تستغرق الكثير من الوقت وتُقيد جغرافيًا. لحسن الحظ، تقدم الطائرات بدون طيار (UAVs) وسيلة لجمع البيانات بطريقة موسعة، إلا أن الانتقال إلى تفسير يعتمد على التعلم العميق يعوقه نقص شديد في الصور المعتمدة من الخبراء، خاصة في المناطق المعقدة والمتنوعة.

في ورقة بحثية جديدة، يعالج الباحثون التحديات المزدوجة المتمثلة في نقص البيانات وعدم التوازن الحاد في الفئات في تقسيم الأنواع الدقيقة في تجديد الغابات. يقدمون إطارًا قابلاً للتوسع يقلل الاعتماد على التفسير اليدوي للصور الجوية عالية الدقة. الأهم من ذلك، تم الاستفادة من نموذج Nano Banana Pro، الذي يجمع بين الرؤية واللغة، لإنشاء صور عالية الدقة وأقنعة دلالية متوافقة مع بكسلاتها من خلال التعليمات المدخلة.

كما نقدم مجموعة بيانات WilDReF-Q-V2، التي تضم 13,977 صورة جديدة غير مُعلمة و50 صورة مُعلمة، بالإضافة إلى مجموعة بيانات Gen4Regen التي تحتوي على 2101 زوج من الصور الاصطناعية والأقنعة الدلالية. يبرز النهج المطروح تكامل البيانات الواقعية مع الصور المولدة بالذكاء الاصطناعي، حيث أظهرت النتائج أن البيانات التي تم توليدها بواسطة الذكاء الاصطناعي تعتبر مكملاً قويًا للبيانات الواقعية، مما يؤدي إلى تحسين نقاط F1 لأكثر من 15% مقارنةً بالأساليب المُشرفة بشكل كامل.

علاوة على ذلك، تمكنا من إثبات أن كميات صغيرة من البيانات المُولَّدة من التعليمات يمكن أن تحسن الأداء بشكل كبير للأنواع المُمثلة تمثيلًا ضعيفًا، حيث حصلت بعض الأنواع على زيادة في نقاط F1 تصل إلى 30%. نستنتج من ذلك أن نماذج الرؤية واللغة يمكن أن تكون مولدات بيانات مرنة، مما يسهل المهام الإدراكية في مجالات الذكاء الاصطناعي المتخصصة حيث تكون التسميات الاحترافية نادرة أو غير متوفرة. ستكون مجموعات البيانات، الشيفرة المصدرية، والنماذج متاحة على https://norlab-ulaval.github.io/gen4regen.