Les engrais verts sont des cultures destinées à être enfouies dans le sol afin d’augmenter la fertilité. La culture d’engrais verts comporte de nombreux avantages. Elle permet entre autres de préparer un nouveau terrain. Cultivés cycliquement, les engrais verts reposent, enrichissent et assainissent la terre. Établis en automne, ils protègent le sol de l’érosion et du lessivage et en préservent la structure.
Yves Gagnon