Semantic video adaptation allows to transmit video contentwith different viewing quality, depending on the relevanceof the content from the user’s viewpoint. To this end, an automatic annotation subsystem must be employed thatautomatically detect relevant objects and events in the videostream. In this paper we present a composite framework thatis made of an automatic annotation engine and a semantics-based adaptation module. Three new different compression solutions are proposed that work at the object or event level. Their performance is compared according to a new measure that takes into account the user’s satisfaction and the effects on it of the errors in the annotation module.
Object-based and Event-based Semantic Video Adaptation / M., Bertini; Cucchiara, Rita; A., DEL BIMBO; Prati, Andrea. - STAMPA. - 4(2004), pp. 987-990. ((Intervento presentato al convegno International Conference on Pattern Recognition tenutosi a Cambridge, UK nel 23-26 August 2004.
Data di pubblicazione: | 2004 |
Titolo: | Object-based and Event-based Semantic Video Adaptation |
Autore/i: | M., Bertini; Cucchiara, Rita; A., DEL BIMBO; Prati, Andrea |
Autore/i UNIMORE: | |
Codice identificativo Scopus: | 2-s2.0-10044228104 |
Codice identificativo ISI: | WOS:000223878400239 |
Nome del convegno: | International Conference on Pattern Recognition |
Luogo del convegno: | Cambridge, UK |
Data del convegno: | 23-26 August 2004 |
Volume: | 4 |
Pagina iniziale: | 987 |
Pagina finale: | 990 |
Citazione: | Object-based and Event-based Semantic Video Adaptation / M., Bertini; Cucchiara, Rita; A., DEL BIMBO; Prati, Andrea. - STAMPA. - 4(2004), pp. 987-990. ((Intervento presentato al convegno International Conference on Pattern Recognition tenutosi a Cambridge, UK nel 23-26 August 2004. |
Tipologia | Relazione in Atti di Convegno |
File in questo prodotto:

I documenti presenti in Iris Unimore sono rilasciati con licenza Creative Commons Attribuzione - Non commerciale - Non opere derivate 3.0 Italia, salvo diversa indicazione.
In caso di violazione di copyright, contattare Supporto Iris