Regalar una APP desde meta

https://www.meta.com/es-es/help/quest/articles/accounts/purchasing-apps/how-to-send-an-app-gift-oculus-store/

Cómo enviar y recibir aplicaciones de regalo

15 Me gusta

Actualización: hace 6 semanas

Puedes enviar y recibir aplicaciones de regalo desde tus gafas Meta Quest. También puedes enviar y recibir regalos desde la aplicación de Meta Quest para móviles o la Meta Quest Store en la web. Al enviar un regalo, asegúrate de comprar la aplicación para el dispositivo adecuado.

Ten en cuenta que, si vas a regalar una aplicación de App Lab, tendrás que introducir el nombre exacto.


desde la web de Meta Quest Store

Para enviar un regalo a alguien:

  1. Ve a la Meta Quest Store en la web desde el navegador.
  2. Tras seleccionar la aplicación que quieres enviar, haz clic en Regalar a un amigo.
  3. En la ventana Comprar regalo, escribe el correo electrónico de tu amigo(a) en el campo Para.
  4. Además, tienes la posibilidad de añadir un mensaje al regalo. A continuación, haz clic en Siguiente para ir a la página de pagos y finalizar la compra.

Para canjear un regalo que te han enviado:

  1. Recibirás un correo electrónico cada vez que un(a) amigo(a) te envíe un regalo. Abre el mensaje de correo electrónico y copia el código de 25 dígitos.
  2. Ve a la página de compra de la aplicación que te han regalado.
  3. Haz clic en Canjear regalo.
  4. En la ventana emergente, escribe el código y haz clic en Enviar.

también se puede desde la Aplicación de Meta Quest para móviles o desde “Meta Quest Store en la realidad virtual”


    Los códigos de las aplicaciones de regalo solo puede canjearlos una vez cualquier persona que tenga acceso a ellos. Además, caducan a los 30 días si no se canjean. Si envías un regalo a una dirección de correo electrónico equivocada y tienes que cancelarlo, ponte en contacto con el equipo de ayuda de Meta Store.

    La pasión según San Juan

    una Pasión inolvidable

    Esta Semana Santa se cumplen 300 años del estreno de la Pasión según San Juan, de Johann Sebastian Bach. Era la ocasión perfecta para traerlo a nuestro festival, ya que, además, ha sido la obra más interpretada en el mismo, siendo la de ayer la duodécima ocasión. Las anteriores fueron en 1975, 1983, 1993, 2001, 2003, 2008, 2010, 2012, 2014, 2016 y 2018. (Datos tomados del libro de Marco Antonio de la Ossa “La Semana de Música Religiosa 1962-2021: análisis, claves y contexto”).

    De Andoni Sierra tenía una excelente impresión, dada por una interpretación sorprendente (porque desconocía totalmente su trayectoria) de la Misa en Si de Bach en 2018. Buceando en el tiempo he rescatado parte de mi crítica para este mismo periódico:

    “Poco puedo apuntar además de lo dicho en los primeros párrafos sobre la interpretación de Andoni Sierra al frente de Conductus Ensemble. Desde los primeros acordes del Kyrie supimos que nos encontrábamos ante algo grande. Sonaron tan precisos y afinados como desgarradores e imploradores de súplica. El nivel instrumental era tan elevado que los colores de esta orquesta de instrumentos originales nunca dejaban de sorprender. Los fraseos siempre fueron detallados y precisos, en unos tempi ágiles y sin descanso. Las voces solistas triunfaron extraordinarias, expresivas y con un profundo equilibrio”.

    Pues bien, lo de ayer fue otra cosa. Mientras escribo, intento recordar todas las emociones y sensaciones de una apuesta que me ha cambiado la percepción de la obra bachiana. El primer causante de todo es el coreógrafo británico Peter Leung. Su apuesta escénica es audaz por su sencillez. No necesita ningún especialista en danza para que funcione, son los propios cantantes quienes desarrollan la propuesta. Un cuadrado blanco en el suelo, el coro vestido de negro, pero con ropa informal. El evangelista (cuya primera aparición me despistó) está trajeado, en otro plano emocional diferente. Jesús presenta un vestido blanco y sobre él irá acumulándose la sangre y el dolor, pero de forma suave, poco a poco, en eterna poesía. Pilatos también utiliza el color negro, pero con chaqueta y corbata. Es el poder que cede a la injusticia por miedo. El coro es tratado escénicamente de manera griega en las intervenciones como actor principal y se adelanta en el escenario cuando canta los corales luteranos. También crean formas por acumulación, auténticas esculturas móviles.
    Por ello, mi planteamiento inicial (un coro excesivamente grande y que perdería detalle y plasticidad en las articulaciones) se derrumba cuando se pone al servicio de la escena. Es un todo artístico que requiere ese número de participantes.

    La Orquesta de las SMR –una selección de instrumentistas nacionales especializados en música antigua con instrumentos originales— sonó extraordinaria, a la altura de las mejores que hemos visto a lo largo de la historia del festival. No estoy exagerando lo más mínimo y creo que es una idea a profundizar y, por qué no, retomar la idea de la ACADEMIA que funcionó hasta justo antes de la pandemia. Las SMR como centro de formación.

    Andoni Sierra no me sorprendió. Ya sabía que era uno de los mayores expertos en Bach de nuestro país. Extrae lo que los demás no conseguimos ver en las partituras y consigue aunar el drama con los tempi exactos para todas las situaciones. Tiene la partitura en la cabeza y su control sobre la situación contagia a todos los músicos.

    Hubo muchas más cosas buenas, algunas tan sencillas como utilizar la tecnología para proyectar el libreto en castellano (ya utilizado para la Pasión según San Lucas de Penderezcki el año anterior) y también cosas mejorables, por supuesto. Es evidente que no todos los solistas vocales estuvieron a la misma altura, pero es un dato menor, porque el concepto, en su globalidad, bordeó la genialidad y la belleza casi absoluta. Una Pasión inolvidable.

    https://www.enciendecuenca.com/2024/03/30/cuando-el-arte-alcanza-los-limites-de-la-emocion-historica-y-excelsa-pasion-segun-san-juan-en-la-smr/

    Cuando el arte alcanza los límites de la emoción; histórica y excelsa “Pasión según San Juan” en la SMR

    La Semana de Música Religiosa de Cuenca vivió anoche una de sus noches históricas.
    Una de esas veladas que será recordada por los que asistieron y que siempre podrán decir que estuvieron presentes el Viernes Santo de 2024 en el concierto que traspasó los límites de los sentidos y elevó la música de Bach a lugares pocas veces antes transitados por muchos de los presentes. Bach siempre es Bach y la propuesta escénica magnificó la emoción y sobrecogió al espectador que acabó conmovido.

    Este año se cumplen 300 años de la primera interpretación por Bach de esta obra maestra en la Iglesia San Nicolás de Leipzig en 1724. La SMR de Cuenca la ha elegido en una versión escenificada para estrenar su propia formación. “La Pasión según San Juan” (BWV245) es la partitura que más veces, doce ocasiones, se ha interpretado en el festival. Su profundidad emocional y expresividad la hacen única. Bach creó una obra que combinaba la riqueza del texto del evangelio con su genialidad musical.

    Uno de los atractivos de la propuesta presentada en Cuenca era su puesta en escena. El diseño de Peter Leung fue brillante, al servicio del evangelio 18 y 19 de San Juan,  con contenida escenografía; un sintético marco luminoso acotaba la escena y sirvió como altar, patíbulo y luminosa tumba de Jesús. El trabajo coreográfico maravilló por lo sutil pero colosal de su profundidad conceptual. Toda la fuerza dramática de Bach, todos los claroscuros de su obra maestra fueron guiados por una propuesta escénica que hizo derrumbar al público que experimentó la Pasión de Jesucristo con una empatía estremecedora.

    Los más de diez minutos de aplausos, como hace tiempo no se recordaban en la SMR, reflejaron el agradecimiento de los asistentes que vieron su percepción quebrada ante semejante monumento artístico.

    La dirección de Andoni Sierra, ahondó con superlativa contención en la interpretación y subrayó lo esencial con delicadeza estremecedora. Los solistas y el coro, regalaron una generosa actuación que incluía un control corporal sobresaliente con un resultado sorprendente por su perfección. Un elenco de protagonistas que conformó un concierto perfecto. Aunque la perfección quizás no existe.

    Un bautismo dorado para la Orquesta y Coro SMR de Cuenca que augura fantásticos hitos en el futuro con más producciones redondas como la vivida hoy. Citas que expandan la función de la SMR en más fechas y escenarios con unos músicos de altísimo nivel. Se pronostican más noches históricas como la de este Viernes Santo de 2024.

    IA generativa en educación

    Te has preguntado ¿cuál es la perspectiva de algunos expertos, como el MIT, sobre el impacto en la educación de la inteligencia artificial generativa (Generative AI)?

    Estos son algunos puntos clave del análisis:

    1. Generative AI en la Educación:
      • La disponibilidad generalizada de herramientas como ChatGPT y DALL-E ha llevado a que los educadores presten más atención a la IA generativa en el proceso de enseñanza-aprendizaje.
      • Los optimistas ven un futuro en el que los estudiantes desarrollan creatividad y pensamiento crítico con el apoyo de la IA, mientras que los pesimistas temen que se use para eludir el pensamiento productivo o para hacer trampa.
    2. Desafíos y Oportunidades:
      • La llegada de la IA generativa es un desafío para las escuelas, especialmente en términos de adaptación y gestión.
      • Las escuelas deben considerar cómo usar la IA de manera efectiva sin comprometer la integridad académica.
      • La equidad en el acceso a la tecnología es un problema importante.
    3. Recomendaciones para las Escuelas:
      • Experimentación limitada y considerada con la IA generativa.
      • Facilitar el acceso a la IA con pautas reflexivas.
      • Considerar qué pensamiento productivo deben fomentar los estudiantes.
      • Trabajar juntos para apoyar a educadores y estudiantes en la adaptación.

    Podemos decir entonces que el MIT aboga por una exploración cuidadosa y una adaptación gradual a la IA generativa en la educación, manteniendo el enfoque en el aprendizaje humano y la creatividad.

    Referencia: mit-genai.pubpub.org concretamente: Generative AI and K-12 Education: An MIT Perspective


    Publicación en Linkedin: https://www.linkedin.com/posts/pedrosanchezortega_generative-ai-and-k-12-education-an-mit-activity-7180245121026646016-pOHi?utm_source=share&utm_medium=member_desktop

    Enfadarse

    Cualquiera puede enfadarse, eso es algo muy sencillo.

    Pero enfadarse con la persona adecuada, en el grado exacto, en el momento oportuno, con el propósito justo y del modo correcto, eso, ciertamente, no resulta tan sencillo.

    Aristóteles

    Desafíos 2024

    Lanzados los desafíos para 2024 en investigación egocéntrica.

    https://egovis.github.io/cvpr24/

    First Joint Egocentric Vision (EgoVis) Workshop

    Held in Conjunction with CVPR 2024

    17 June 2024 – Seattle, USA

    This joint workshop aims to be the focal point for the egocentric computer vision community to meet and discuss progress in this fast growing research area, addressing egocentric vision in a comprehensive manner including key research challenges in video understanding, multi-modal data, interaction learning, self-supervised learning, AR/VR with applications to cognitive science and robotics.

    Overview

    Wearable cameras, smart glasses, and AR/VR headsets are gaining importance for research and commercial use. They feature various sensors like cameras, depth sensors, microphones, IMUs, and GPS. Advances in machine perception enable precise user localization (SLAM), eye tracking, and hand tracking. This data allows understanding user behavior, unlocking new interaction possibilities with augmented reality. Egocentric devices may soon automatically recognize user actions, surroundings, gestures, and social relationships. These devices have broad applications in assistive technology, education, fitness, entertainment, gaming, eldercare, robotics, and augmented reality, positively impacting society.

    Previously, research in this field faced challenges due to limited datasets in a data-intensive environment. However, the community’s recent efforts have addressed this issue by releasing numerous large-scale datasets covering various aspects of egocentric perception, including HoloAssist, Aria Digital Twin, Aria Synthetic Environments, Ego4D, Ego-Exo4D, and EPIC-KITCHENS.

    Hololens 2 Image

    HoloAssist

    Aria Digital Twin

    Aria Digital Twin

    Aria Synthetic Environments

    Aria Synthetic Environments

    Ego-Exo4D Logo

    Ego-Exo4D

    Ego4D Logo

    Ego4D

    EPIC-Kitchens Logo

    EPIC-Kitchens

    The goal of this workshop is to provide an exciting discussion forum for researchers working in this challenging and fast-growing area, and to provide a means to unlock the potential of data-driven research with our datasets to further the state-of-the-art.

    Challenges

    We welcome submissions to the challenges from March to May (see important dates) through the leaderboards linked below. Participants to the challenges are are requested to submit a technical report on their method. This is a requirement for the competition. Reports should be 2-6 pages including references. Submissions should use the CVPR format and should be submitted through the CMT website.

    HoloAssist Challenges

    Challenge IDChallenge NameChallenge LeadChallenge Link
    1Action RecognitionMahdi Rad, Microsoft, SwitzerlandComing Soon…
    2Mistake DetectionIshani Chakraborty, Microsoft, USComing Soon…
    3Intervention PredictionXin Wang, Microsoft, USComing Soon…
    43D hand pose forecastingTaein Kwon, ETH Zurich, SwitzerlandComing Soon…

    Aria Digital Twin Challenges

    Challenge IDChallenge NameChallenge LeadChallenge Link
    1Few-shots 3D Object detection & trackingXiaqing Pan, Meta, USLink
    23D Object detection & trackingXiaqing Pan, Meta, USLink

    Aria Synthetic Environments Challenges

    Challenge IDChallenge NameChallenge LeadChallenge Link
    1Scene Reconstruction using structured languageVasileios Baltnas, Meta, UKLink

    Ego4D Challenges

    Challenge IDChallenge NameChallenge LeadChallenge Link
    1Visual Queries 2DSanthosh Kumar Ramakrishnan, University of Texas, Austin, USLink
    2Visual Queries 3DVincent Cartillier, Georgia Tech, USLink
    3Natural Language QueriesSatwik Kottur, Meta, USLink
    4Moment QueriesChen Zhao & Merey Ramazanova, KAUST, SALink
    5EgoTracksHao Tang & Weiyao Wang, Meta, USLink
    6Goal StepYale Song, Meta, USLink
    7Ego SchemaKarttikeya Mangalam, Raiymbek Akshulakov, UC Berkeley, USLink
    8PNR temporal localizationYifei Huang, University of Tokyo, JPLink
    9Localization and TrackingHao Jiang, Meta, USLink
    10Speech TranscriptionLeda Sari Jachym Kolar & Vamsi Krishna Ithapu, Meta Reality Labs, USLink
    11Looking at meEric Zhongcong Xu, National University of Singapore, SingaporeLink
    12Short-term AnticipationFrancesco Ragusa, University of Catania, ITLink
    13Long-term AnticipationTushar Nagarajan, FAIR, USLink

    Ego-Exo4D Challenges

    Challenge IDChallenge NameChallenge LeadChallenge Link
    1coming soon…coming soon…coming soon…

    EPIC-Kitchens Challenges

    Please check the EPIC-KITCHENS website for more information on the EPIC-KITCHENS challenges. Links to individual challenges are also reported below.

    Challenge IDChallenge NameChallenge LeadChallenge Link
    1Action RecognitionJacob Chalk, University of Bristol, UKLink
    2Action AnticipationAntonino Furnari and Francesco Ragusa University of Catania, ITLink
    3Action DetectionFrancesco Ragusa and Antonino Furnari, University of Catania, ITLink
    4Domain Adaptation for Action RecognitionToby Perrett, University of Bristol, UKLink
    5Multi-Instance RetrievalMichael Wray, University of Bristol, UKLink
    6Semi-Supervised Video-Object SegmentationAhmad Dar Khalil, University of Bristol, UKLink
    7Hand-Object SegmentationDandan Shan, University of Michigan, USLink
    8EPIC-SOUNDS Audio-Based Interaction RecognitionJacob Chalk, University of Bristol, UKLink
    9TREK-150 Object TrackingMatteo Dunnhofer, University of Udine, ITLink

    Call for Abstracts

    You are invited to submit extended abstracts to the first edition of joint egocentric vision workshop which will be held alongside CVPR 2024 in Seattle.

    These abstracts represent existing or ongoing work and will not be published as part of any proceedings. We welcome all works that focus within the Egocentric Domain, it is not necessary to use the Ego4D dataset within your work. We expect a submission may contain one or more of the following topics (this is a non-exhaustive list):

    • Egocentric vision for human activity analysis and understanding, including action recognition, action detection, audio-visual action perception and object state change detection
    • Egocentric vision for anticipating human behaviour, actions and objects
    • Egocentric vision for 3D perception and interaction, including dynamic scene reconstruction, hand-object reconstruction, long-term object tracking, NLQ and visual queries, long-term video understanding
    • Head-mounted eye tracking and gaze estimation including attention modelling and next fixation prediction
    • Egocentric vision for object/event recognition and retrieval
    • Egocentric vision for summarization
    • Daily life and activity monitoring
    • Egocentric vision for human skill learning, assistance, and robotics
    • Egocentric vision for social interaction and human behaviour understanding
    • Privacy and ethical concerns with wearable sensors and egocentric vision
    • Egocentric vision for health and social good
    • Symbiotic human-machine vision systems, human-wearable devices interaction
    • Interactive AR/VR and Egocentric online/real-time perception

    Format

    The length of the extended abstracts is 2-4 pages, including figures, tables, and references. We invite submissions of ongoing or already published work, as well as reports on demonstrations and prototypes. The 1st joint egocentric vision workshop gives opportunities for authors to present their work to the egocentric community to provoke discussion and feedback. Accepted work will be presented as either an oral presentation (either virtual or in-person) or as a poster presentation. The review will be single-blind, so there is no need to anonymize your work, but otherwise will follow the format of the CVPR submissions, information can be found here. Accepted abstracts will not be published as part of a proceedings, so can be uploaded to ArXiv etc. and the links will be provided on the workshop’s webpage. The submission will be managed with the CMT website.

    Important Dates

    Challenges Leaderboards OpenMar 2024
    Challenges Leaderboards Close30 May 2024
    Challenges Technical Reports Deadline (on CMT)5 June 2024 (23:59 PT)
    Extended Abstract Deadline10 May 2024 (23:59 PT)
    Extended Abstract Notification to Authors29 May 2024
    Extended Abstracts ArXiv Deadline12 June 2024
    Workshop Date17 June 2024

    Program

    All dates are local to Seattle’s time, PST.
    Workshop Location: Room TBD

    A tentative programme is shown below.

    TimeEvent
    08:45-09:00Welcome and Introductions
    09:00-09:30Invited Keynote 1: Takeo Kanade, Carnegie Mellon University, US
    09:30-10:20HoloAssist Challenges
    10:20-11:20Coffee Break and Poster Session
    11:20-11:50Invited Keynote 2: Diane Larlus, Naver Labs Europe and MIAI Grenoble, FR
    11:50-12:40EPIC-KITCHENS Challenges
    12:40-13:40Lunch Break
    13:40-14:10EgoVis 2022/2023 Distinguished paper Awards
    14:10-14:40Invited Keynote 3: Michael C. Frank & Bria Long, Stanford University, US
    14:40-15:30Aria Digital Twin & Synthetic Environments Challenges
    15:30-16:00Coffee Break
    16:00-16:30Invited Keynote 4: Fernando de La Torre, Carnegie Mellon University, US
    16:30-17:40Ego4D Challenges
    17:40-18:10Invited Keynote 5: Jim Rehg, University of Illinois Urbana-Champaign, US
    18:10-18:15Conclusion

    Invited Speakers


    Takeo Kanade

    Carnegie Mellon University, USA


    Jim Rehg

    University of Illinois Urbana-Champaign, USA


    Diane Larlus

    Naver Labs Europe and MIAI Grenoble


    Fernando De la Torre

    Carnegie Mellon University, USA


    Michael C. Frank

    Stanford University, USA


    Bria Long

    University of California, San Diego, USA

    Workshop Organisers


    Antonino Furnari

    University of Catania


    Angela Yao

    National University of Singapore


    Xin Wang

    Microsoft Research


    Tushar Nagarajan

    FAIR, Meta


    Huiyu Wang

    FAIR, Meta


    Jing Dong

    Meta


    Jakob Engel

    FAIR, Meta


    Siddhant Bansal

    University of Bristol


    Takuma Yagi

    National Institute of Advanced Industrial Science and Technology

    Co-organizing Advisors


    Dima Damen

    University of Bristol


    Giovanni Maria Farinella

    University of Catania


    Kristen Grauman

    UT Austin


    Jitendra Malik

    UC Berkeley


    Richard Newcombe

    Reality Labs Research


    Marc Pollefeys

    ETH Zurich


    Yoichi Sato

    University of Tokyo


    David Crandall

    Indiana University

    Related Past Events

    This workshop follows the footsteps of the following previous events:

    EPIC-Kitchens and Ego4D Past Workshops:

    Human Body, Hands, and Activities from Egocentric and Multi-view Cameras Past Workshops:

    Project Aria Past Tutorials: