Las aplaudidas declaraciones de Christian Bale que cuestionan el rol del ‘hombre blanco’ en la sociedad

De un tiempo a esta parte, una serie de denuncias sobre acoso sexual han salido a la luz y han tenido lugar en el ambiente de Hollywood

Por Paula Toro

20/12/2017

Publicado en

Tendencias

0 0


De un tiempo a esta parte, una serie de denuncias sobre acoso sexual han salido a la luz y han tenido lugar en el ambiente de Hollywood.

En ese contexto, algunos actores o personajes de ese mundo han querido manifestar su opinión. Hace unos días lo hizo Matt Damon con una cuestionable frase que generó repudio en muchas actrices, e incluso en su ex esposa, Minnie Driver.

Pero ahora, otro actor quiso dar su opinión de una forma mucho más respetuosa y empática. Se trata de Christian Bale, quien dio una aplaudida declaración que cuestionaba el rol de los ‘hombres blancos’ como entes de poder en la sociedad.

Para el actor, la sociedad estadounidense sería mucho más libre e inclusiva si los hombres blancos no estuvieran a cargo de todo, ya sea en el mundo político, en Hollywood, en los trabajos, etc.

«Nuestra cultura será mucho más rica cuando los hombres blancos dejen de estar a cargo de todo. Ya sea Hollywood o Washington o lo que sea. En Hollywood vamos a obtener películas mucho mejores e historias mucho más interesantes, y Estados Unidos se convertirá en el país que el resto del mundo ya ve, abrazando lo que lo hace único», indicó el hombre que encarnó a ‘Batman’.

Si bien no se refirió explícitamente al tema del acoso, para muchos usuarios en redes sociales las declaraciones de Bale tienen sentido, pues pretenden eliminar los estereotipos que las personas que han estado en el poder han promovido durante años, como lo es, por ejemplo, el rol de la mujer.

¿Qué piensas sobre los dichos emitidos por el actor?

 

 

Síguenos y suscríbete a nuestras publicaciones

Comparte ✌️

Comenta 💬