x
1

Hollywood Film Festival



¿Dónde nació Hollywood Film Festival?

Hollywood Film Festival nació en Estados Unidos.


El Hollywood Film Festival es un festival cinematográfico anual celebrado en Los Ángeles (Estados Unidos). Fue creado en el año 1997.

El festival se creó con la intención de establecer relaciones entre todos los creativos de la comunidad cinematográfica.



Escribe un comentario o lo que quieras sobre Hollywood Film Festival (directo, no tienes que registrarte)


Comentarios
(de más nuevos a más antiguos)


Aún no hay comentarios, ¡deja el primero!