La visión de la sociedad está cambiando y con ella, la forma en la que se dirigen las compañías. Hasta ahora, el fin de una empresa ha sido obtener beneficios económicosSin embargo, esta forma de entender los negocios está cambiando. Se está haciendo patente la necesidad de ver más allá de la propia empresa y preocuparse por los propios trabajadores, la sociedad y el medio ambiente.