x
1

Festival de Cine de Hollywood



¿Dónde nació Festival de Cine de Hollywood?

Festival de Cine de Hollywood nació en Estados Unidos.


El Hollywood Film Festival es un festival cinematográfico anual celebrado en Los Ángeles (Estados Unidos). Fue creado en el año 1997.

El festival se creó con la intención de establecer relaciones entre todos los creativos de la comunidad cinematográfica.



Escribe un comentario o lo que quieras sobre Festival de Cine de Hollywood (directo, no tienes que registrarte)


Comentarios
(de más nuevos a más antiguos)


Aún no hay comentarios, ¡deja el primero!