Quitar líneas repetidas en un fichero
cat fichero | uniq
Previamente el fichero ha de estar ordenado.
Con sort -u
ordenamos y quitamos las líneas repetidas.
cat fichero | uniq
Previamente el fichero ha de estar ordenado.
Con sort -u
ordenamos y quitamos las líneas repetidas.
#!/bin/bash # Genera una estructura html a partir de ficheros md (markdown) # 1. Genera la estructura de directorios # 2. Construye los html # 3. Genera un fichero índice con un enlace a todos los documentos OUTPUT=HTML if [ ! -d $OUTPUT ]; then mkdir $OUTPUT fi files=($(find ./ -type f -name ‘*.md’)) for…
grep -m 1 -oE ‘([0-9]{1,3}\.){3}[0-9]{1,3}’
Partiendo del fichero si hacemos cat file5_new.txt | tr ‘\n’ ‘ ‘ | awk ‘{$1=$1}1’ FS=" " OFS="\t" > file5_restore.txt obtenemos
Tenemos el fichero Si se quiere la suma de la columna col3: awk ‘BEGIN{FS="\t";count=0}{if(NR>1){count+=$3}}END{print count}’ file6.txt se obtiene: 171
#!/bin/bash while [ true ] ; # se estará ejecutando indefinidamente do mem=`free -m |awk ‘NR==2 {print $4}’` # free -> da la memoria libre del sistema # -m : en megas # awk -> extrae texto # NR==2 : la 2ª línea # {print $4}: la 4ª columna if [ $mem -lt 10 ];…
Tenemos un csv generado con Excel, delimitado por comas: Con awk ‘{$1=$1}1’ FS="," OFS="\t" file4.csv > file4.txt pasaríamos a tener: {$1=$1}1: Reinicia el buffer FS="," : Se le dice a awk que el delimitador actual es , OFS="\t" : Se le dice a awk que el nuevo delimitador pasa a ser \t