Les Verts — Wikipédia

Le terme Les Verts peut avoir différentes significations :

Les Verts (terme apparu en 1980) peut désigner un parti politique (ou les membres de ce parti politique) écologiste, présent dans plusieurs pays :

L'expression Les Verts désigne :