La responsabilidad social es el compromiso que los miembros de una sociedad tienen con la sociedad en su conjunto. Actualmente, la responsabilidad social de las empresas se considera un concepto no obligatorio cubierto por acuerdos internacionales. Los gerentes deben entender que cuidar los recursos naturales es importante para el futuro de las operaciones de una empresa. Las empresas deben invertir en lo social, como eliminar la corrupción y pagar salarios justos, para redistribuir el ingreso de forma equitativa y generar valor a largo plazo para la empresa y la sociedad.