
Contratos de trabajo, que debes saber.
Un contrato de trabajo es un acuerdo entre empresario y trabajador por el que éste se obliga a prestar determinados servicios por cuenta del empresario y bajo su dirección, a cambio de una retribución. El contrato de trabajo puede formalizarse por escrito o de palabra. Es obligatorio formalizarlo por escrito cuando así lo exija una disposición legal, y siempre en los contratos de: Prácticas. Formación. Para la realización de una obra o servicio determinado. A tiempo parcial,