11-08-2016 06:25 PM
Estimados por favor su ayuda al momento tenemos Alfresco comunity versión 4.0.2, sirviendo como repositorio documental de un sistema en un ambiente productivo, este sistema tiene un formulario que llena el usuario final, en el cual se suben archivos que son guardados temporalmente y luego se registran en Alfresco, de acuerdo a lo que me indicaron la configuración de alfresco es por default, sin embargo desde hace algún tiempo están dando problemas con la visualización de estos archivos (pdf), el proceso que hacíamos era reiniciar el servicio (matando el servicio a través de consola con kill -9 y luego levantábamos el servicio con la opción startup.sh), sin embargo desde ayer este procedimiento no funciona y hoy reiniciamos todo el servidor donde esta Alfresco bajamos los servicios relacionado y los subimos de nuevo, sin embargo no se soluciono el problema, al revisar los formularios no se visualizan los archivos y en el alfresco están guardados con 0 kb el error en el aplicativo es el siguiente:
Falta el contenido del nodo:
nodo: workspace://SpacesStore/6097b995-7878-488d-97bc-32e8e9ea43fd
lector: null
Por favor, contacte al administrador de su sistema.
Por favor su ayuda con este caso, la verdad no tengo experiencia alguna en alfresco y no se que debo revisar y que acciones efectuar de antemano gracias
11-10-2016 08:50 AM
Hi,
To answer your question I need some more details. Please provide the stacktrace from console.
Thank you
Kalpesh
11-10-2016 08:44 PM
Hola se reviso las configuraciones y existian conexiones que no se cerraban debido al java lo que hicimos fue agregar estas configuraciones:
maxThreads=”200” (antes 100)
<Connectorport="8080" protocol="HTTP/1.1" maxThreads=”200” (antes 100)
-XX:MaxPermSize=256m -Xms2500m -Xmx2500m -Xss=128k -server
(No se cambio lo descrito en rojo estaba más alto en el documento)
(Se aumento esta instrucción - server por ser un ambiente productivo)
se agrego:
alfresco.batch.count=2000
solr.filterCache.size=64
solr.filterCache.initialSize=64
solr.queryResultCache.size=1024
solr.queryResultCache.initialSize=1024
solr.documentCache.size=64
solr.documentCache.initialSize=64
solr.queryResultMaxDocsCached=2000
solr.authorityCache.size=64
solr.authorityCache.initialSize=64
solr.pathCache.size=64
solr.pathCache.initialSize=64
y
mergeFactor cambiarlo a 25 (antes 3)
ramBufferSizeMB cambiarlo a 64 (antes 32)
Tambien se configuro que se cierren las conexiones despues de un tiempo si no las usan estaba trabajando bien pero salio este error que hago:
Nov 10, 2016 8:28:55 PM org.alfresco.solr.tracker.CoreTracker trackRepository
SEVERE: Tracking failed
java.io.IOException: I/O error
at sun.nio.ch.FileDispatcher.pread0(Native Method)
at sun.nio.ch.FileDispatcher.pread(FileDispatcher.java:31)
at sun.nio.ch.IOUtil.readIntoNativeBuffer(IOUtil.java:195)
at sun.nio.ch.IOUtil.read(IOUtil.java:171)
at sun.nio.ch.FileChannelImpl.read(FileChannelImpl.java:612)
at org.apache.lucene.store.NIOFSDirectory$NIOFSIndexInput.readInternal(NIOFSDirectory.java:161)
at org.apache.lucene.store.BufferedIndexInput.refill(BufferedIndexInput.java:157)
at org.apache.lucene.store.BufferedIndexInput.readByte(BufferedIndexInput.java:38)
at org.apache.lucene.store.IndexInput.readVInt(IndexInput.java:78)
at org.apache.lucene.index.TermBuffer.read(TermBuffer.java:64)
at org.apache.lucene.index.SegmentTermEnum.next(SegmentTermEnum.java:129)
at org.apache.lucene.index.SegmentTermEnum.scanTo(SegmentTermEnum.java:160)
at org.apache.lucene.index.TermInfosReader.get(TermInfosReader.java:232)
at org.apache.lucene.index.TermInfosReader.terms(TermInfosReader.java:277)
at org.apache.lucene.index.SegmentReader.terms(SegmentReader.java:961)
at org.apache.lucene.index.DirectoryReader$MultiTermEnum.<init>(DirectoryReader.java:989)
at org.apache.lucene.index.DirectoryReader.terms(DirectoryReader.java:626)
at org.apache.solr.search.SolrIndexReader.terms(SolrIndexReader.java:302)
at org.alfresco.solr.tracker.CoreTracker.trackRepository(CoreTracker.java:1366)
at org.alfresco.solr.tracker.CoreTracker.updateIndex(CoreTracker.java:491)
at org.alfresco.solr.tracker.CoreTrackerJob.execute(CoreTrackerJob.java:45)
at org.quartz.core.JobRunShell.run(JobRunShell.java:216)
at org.quartz.simpl.SimpleThreadPool$WorkerThread.run(SimpleThreadPool.java:563)
Nov 10, 2016 8:28:55 PM org.alfresco.solr.tracker.CoreTracker trackRepository
SEVERE: Tracking failed
java.io.IOException: I/O error
at sun.nio.ch.FileDispatcher.pread0(Native Method)
at sun.nio.ch.FileDispatcher.pread(FileDispatcher.java:31)
at sun.nio.ch.IOUtil.readIntoNativeBuffer(IOUtil.java:195)
at sun.nio.ch.IOUtil.read(IOUtil.java:171)
at sun.nio.ch.FileChannelImpl.read(FileChannelImpl.java:612)
at org.apache.lucene.store.NIOFSDirectory$NIOFSIndexInput.readInternal(NIOFSDirectory.java:161)
at org.apache.lucene.store.BufferedIndexInput.refill(BufferedIndexInput.java:157)
at org.apache.lucene.store.BufferedIndexInput.readByte(BufferedIndexInput.java:38)
at org.apache.lucene.store.IndexInput.readVInt(IndexInput.java:78)
at org.apache.lucene.index.TermBuffer.read(TermBuffer.java:64)
at org.apache.lucene.index.SegmentTermEnum.next(SegmentTermEnum.java:129)
at org.apache.lucene.index.SegmentTermEnum.scanTo(SegmentTermEnum.java:160)
at org.apache.lucene.index.TermInfosReader.get(TermInfosReader.java:232)
at org.apache.lucene.index.TermInfosReader.terms(TermInfosReader.java:277)
at org.apache.lucene.index.SegmentReader.terms(SegmentReader.java:961)
at org.apache.lucene.index.DirectoryReader$MultiTermEnum.<init>(DirectoryReader.java:989)
at org.apache.lucene.index.DirectoryReader.terms(DirectoryReader.java:626)
at org.apache.solr.search.SolrIndexReader.terms(SolrIndexReader.java:302)
at org.alfresco.solr.tracker.CoreTracker.trackRepository(CoreTracker.java:1366)
at org.alfresco.solr.tracker.CoreTracker.updateIndex(CoreTracker.java:491)
at org.alfresco.solr.tracker.CoreTrackerJob.execute(CoreTrackerJob.java:45)
at org.quartz.core.JobRunShell.run(JobRunShell.java:216)
at org.quartz.simpl.SimpleThreadPool$WorkerThread.run(SimpleThreadPool.java:563)
11-11-2016 12:34 AM
Hi Lucy,
There might be couple of problem here.
1. Your server disk ran out of space [Solution : increase disk space]
2. You do not have sufficient recursive permission to create/delete/update new index file on server [Solution : chmod +777 ... ]
3. The Solr indexes are corrupted. [Rebuild solr indexes Performing a full reindex with Solr | Alfresco Documentation ]
Let me know if you can share more information on the issue you are facing.
Thanks,
Kalpesh
11-12-2016 04:15 PM
Muchas Gracias en la respuesta, en referencia Rebuild solr indexes cuanto se demora tengo de informacion 800 Gb mas o menos, cual es el tiempo que se demora.
sabes revisando el log tambien identifico lo siguente:
2016-11-11 08:00:51,171 WARN [post.lookup.PostLookup] [DefaultScheduler_Worker-1] Still busy ...
2016-11-11 09:37:47,947 WARN [post.lookup.PostLookup] [DefaultScheduler_Worker-10] Still busy ...
2016-11-11 09:45:47,190 WARN [post.lookup.PostLookup] [DefaultScheduler_Worker-2] Still busy ...
2016-11-11 12:38:50,854 WARN [post.lookup.PostLookup] [DefaultScheduler_Worker-7] Still busy ...
2016-11-11 14:56:51,011 WARN [post.lookup.PostLookup] [DefaultScheduler_Worker-10] Still busy ...
2016-11-12 00:16:17,193 WARN [post.lookup.PostLookup] [DefaultScheduler_Worker-2] Still busy ...
luego se deteriora el servicio hasta que no se visualizan los archivos al efectuar la Rebuild solr indexes se arregla esto o que reviso ? vi el tamaño y si tiene espacio el reindex si se debe hacer solo no se cuando se demora, al respecto del punto dos no se donde reviso.
11-12-2016 04:21 PM
Una consulta el Performing a full reindex with Solr es para Alfresco One 5.1 se puede aplicar en el Alfresco comunity versión 4.0.2?
11-16-2016 05:55 AM
You have to find the same topic in the docs, but for the 4.0 version.
The components are not exactly the same.
Tags
Find what you came for
We want to make your experience in Hyland Connect as valuable as possible, so we put together some helpful links.